Redis 是一个高性能的key-value数据库。redis的出现,
很大程度补偿了memcached这类keyvalue存储的不足,在部分场合可以对关系数据库起到很好的补充作用。
它提供了Python,Ruby,Erlang,PHP客户端,使用很方便。
目前Redis已经发布了3.0版本,正式支持分布式,这个特性太强大,以至于你再不用就对不住自己了。
性能测试
服务器配置:Linux 2.6, Xeon X3320 2.5Ghz
SET操作每秒钟110000次,GET操作每秒钟81000次
stackoverflow网站使用Redis做为缓存服务器。
安装redis
服务器安装篇我写了专门文章,
请参阅redis入门与安装
django中的配置
我们希望在本博客系统中,对于文章点击数、阅览数等数据实现缓存,提高效率。
requirements.txt
添加如下内容,方便以后安装软件依赖,由于在pythonanywhere上面并不能安装redis服务,所以本章只能在本地测试。
1 2 3
| redis==2.10.5 django-redis==4.4.2 APScheduler==3.1.0
|
settings.py配置
新增内容
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
| from urllib.parse import urlparse import dj_database_url
redis_url = urlparse(os.environ.get('REDISTOGO_URL', 'redis://localhost:6959')) CACHES = { 'default': { 'BACKEND': 'redis_cache.cache.RedisCache', 'LOCATION': '{0}:{1}'.format(redis_url.hostname, redis_url.port), 'OPTIONS': { 'DB': 0, 'PASSWORD': redis_url.password, 'CLIENT_CLASS': 'redis_cache.client.DefaultClient', 'PICKLE_VERSION': -1, 'SOCKET_TIMEOUT': 60, 'IGNORE_EXCEPTIONS': True, } } }
SESSION_ENGINE = 'django.contrib.sessions.backends.cache' SESSION_CACHE_ALIAS = 'default'
try: from .local_settings import * except ImportError: pass
|
local_settings.py配置
这个是本地开发时候使用到的配置文件
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
| DEBUG = True
CACHES = { 'default': { 'BACKEND': 'redis_cache.cache.RedisCache', 'LOCATION': '192.168.203.95:6379:1', 'OPTIONS': { 'CLIENT_CLASS': 'redis_cache.client.DefaultClient', 'PICKLE_VERSION': -1, 'SOCKET_TIMEOUT': 60, 'IGNORE_EXCEPTIONS': True, } } }
|
使用方法
cache_manager.py缓存管理器
我们新建一个缓存管理器cache_manager.py,内容如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47
|
""" Topic: redis缓存管理器 """ from ..models import Post from redis_cache import get_redis_connection from apscheduler.schedulers.background import BackgroundScheduler
RUNNING_TIMER = False REDIS_DB = get_redis_connection('default')
def update_click(post): """ 更新点击数 """ if REDIS_DB.hexists("CLICKS", post.id): print('REDIS_DB.hexists...' + str(post.id)) REDIS_DB.hincrby('CLICKS', post.id) else: print('REDIS_DB.not_hexists...' + str(post.id)) REDIS_DB.hset('CLICKS', post.id, post.click + 1) run_timer()
def get_click(post): """ 获取点击数 """ if REDIS_DB.hexists("CLICKS", post.id): return REDIS_DB.hget('CLICKS', post.id) else: REDIS_DB.hset('CLICKS', post.id, post.click) return post.click
def sync_click(): """同步文章点击数""" print('同步文章点击数start....') for k in REDIS_DB.hkeys('CLICKS'): try: p = Post.objects.get(k) print('db_click={0}'.format(p.click)) cache_click = get_click(p.id) print('cache_click={0}'.format(cache_click)) if cache_click != p.click: p.click = get_click(p.id) p.save() except: pass
|
views.py修改
然后我们修改view.py,在相应的action里使用这个cache_manager:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
| from .commons import cache_manager
def post_list(request): """所有已发布文章""" posts = Post.objects.annotate(num_comment=Count('comment')).filter( published_date__isnull=False).prefetch_related( 'category').prefetch_related('tags').order_by('-published_date') for p in posts: p.click = cache_manager.get_click(p) return render(request, 'blog/post_list.html', {'posts': posts})
def post_detail(request, pk): try: pass except: raise Http404() if post.published_date: cache_manager.update_click(post) post.click = cache_manager.get_click(post)
|
其他的我就不多演示了。