• Stars
    star
    151
  • Rank 246,057 (Top 5 %)
  • Language
    CSS
  • Created about 6 years ago
  • Updated over 2 years ago

Reviews

There are no reviews yet. Be the first to send feedback to the community and the maintainers!

Repository Details

A SpringBoot project based on Redis from nowcoder.

nowcoder问答平台

本项目是一个基于 SpringBoot 的问答平台。数据库使用了 redis 和 mysql,实现注册登录、点赞点踩、评论站内信、Timeline 事件流等功能,同时通过一个异步消息框架来实现事件的异步处理,并使用爬虫对网站进行数据填充。

目录

项目的基本框架及配置

创建 git 仓库,本地配置 IDEA 并测试 pull 和 push。

创建 SpringBoot 工程,导入 web,velocity 和 aop 的包。

生成 maven 项目,pom.xml 包含上述依赖。

Controller 中使用注解配置,requestmapping,responsebody 基本可以解决请求转发以及响应内容的渲染。responsebody 自动选择 viewresolver 进行解析。

使用 pathvariable 和 requestparam 传递参数,使用 velocity 编写页面模板,注意其中的语法使用。常用 $!{} 和 ${}。

使用 HTTP 规范下的 httpservletrequest 和 httpservletresponse 来封装请求和相响应,使用封装好的 session 和 cookie 对象。

使用重定向的 redirectview 和统一异常处理器 exceptionhandler。

AOP 和 IOC

IOC 解决对象实例化以及依赖传递问题,解耦。

AOP 解决纵向切面问题,主要实现日志和权限控制功能。

Aspect 实现切面,并且使用 logger 来记录日志,用该切面的切面方法来监听 Controller。

有关 Spring 框架中 IOC 容器和 AOP 动态代理的相关知识可参见 simple-spring

MySQL 和 MyBatis

使用 MySQL 创建数据库和表。

加入 MyBatis和 MySQL 的 maven 仓库,注意,由于现在版本的 SpringBoot 不再支持 velocity 进而导致我使用较早版本的 SpringBoot,所以这里提供一可以正常运行的版本设置。

SpringBoot 使用1.4.0,mybatis-spring-boot-starter 使用1.2.1,mysql-connector-java 使用8.0.12。

注意 MyBatis 的注解语法以及 xml 的配置要求,xml 要求放在 resource 中并且与 DAO 接口在相同的包路径下。

application.properties 增加 Spring 配置数据库链接地址。

两个小工具:

  • ViewObject:方便传递任何数据到
  • VelocityDateTool:velocity 自带工具类

写好静态文件 html、css 和 js,并且注意配置。

  • spring.velocity.suffix=.html 保证跳转请求转发到 html 上
  • spring.velocity.toolbox-config-location=toolbox.xml

注册与登录的实现

新建数据表 login_ticket 用来存储 ticket 字段。该字段在用户登录成功时被生成并存入数据库,并被设置为 Cookie,下次用户登录时会带上这个 ticket,ticket 是随机的 UUID 字符串,有过期时间以及有效状态。

使用拦截器 interceptor 来拦截所有用户请求,判断请求中是否存在有效的 ticket,如果有就将用户信息写入 Threadlocal。所有线程的 threadlocal 都被存在一个叫做 hostholder 的实例中,根据该实例就可以在全局任意位置获取用户的信息。

该 ticket 的功能类似 Session,也是通过 Cookie 写回浏览器,浏览器请求时再通过 Cookie 传递,区别是该字段是存在数据库中的,并且可以用于移动端。

通过用户访问权限拦截器来拦截用户的越界访问,比如用户没有管理员权限就不能访问管理员页面。

数据安全性的保障手段:HTTPS 使用公钥加密私钥解密,比如支付宝的密码加密,单点登录验证,验证码机制等。

发表问题和敏感词过滤

发布问题时检查标题和内容,防止 xss 注入,并且过滤敏感词。

防止 xss 注入直接使用 HTMLutils 的方法即可实现。

过滤敏感词首先需要建立一个字典树,并且读取一份保存敏感词的文本文件,然后初始化字典树。最后将过滤器作为一个服务,让需要过滤敏感词的服务进行调用即可。

发表评论和站内信

首先建立表 comment 和 message 分别代表评论和站内信。

评论的逻辑是每一个问题下面都有评论,显示评论数量,具体内容,评论人等信息。

消息的逻辑是,两个用户之间发送一条消息,有一个唯一的会话 id,这个会话里可以有多条这两个用户的交互信息。通过一个用户 id 获取该用户的会话列表,再根据会话 id 再获取具体的会话内的多条消息。

逻辑清楚之后,再加上一些附加功能,比如显示未读消息数量,根据时间顺序排列会话和消息。

本节内容基本就是业务逻辑的开发,没有新增什么技术点,主要是前后端交互的逻辑比较复杂,前端的开发量也比较大。

Redis 实现点赞和点踩功能

首先了解一下 Redis 的基础知识,数据结构,Jedis 使用等。

编写list,string,hashmap,set,sortset的测试用例,熟悉 Jedis API。

开发点踩和点赞功能,在此之前根据业务封装好 Jedis 的增删改查操作,放在 util 包中。

根据需求确定 key 字段,格式是——like:实体类型:实体id 和 dislike:实体类型:实体 id。这样可以将喜欢一条新闻的人存在一个集合,不喜欢的存在另一个集合。通过统计数量可以获得点赞和点踩数。

一般点赞点踩操作是先修改 Redis 的值并获取返回值,然后再异步修改 MySQL 数据库的 likecount 数值。这样既可以保证点赞操作快速完成,也可保证数据一致性。

异步消息机制

在之前的功能中有一些不需要实时执行的操作或者任务,我们可以把它们改造成异步消息来进行发送。

具体操作就是使用 Redis 来实现异步消息队列。代码中使用事件 Event 来包装一个事件,事件需要记录事件实体的各种信息:一个异步工具类(事件生产者 + 事件消费者 + EventHandler 接口),让以后各种事件的实现类来实现这个接口。

事件生产者一般作为一个服务,由 Controller 中的业务逻辑调用并产生一个事件,将事件序列化存入 Redis 队列中,事件消费者则通过一个线程循环获取队列里的事件,并且寻找对应的 handler 进行处理。

整个异步事件的框架开发完成,后面新加入的登录,点赞等事件都可以这么实现。

关注和粉丝列表的实现

新增关注功能,使用 Redis 实现每一个关注对象的粉丝列表以及每一个用户的关注对象列表。通过该列表的 crud 操作可以对应获取粉丝列表和关注列表,并且实现关注和取关功能。

由于关注成功和添加粉丝成功时同一个事务里的两个操作,可以使用 Redis 的事务 multi 来包装事务并进行提交。

除此之外,关注成功或者被关注还可以通过事件机制来生成发送邮件的事件,由异步的队列处理器来完成事件响应,同样是根据 Redis 来实现。

对于粉丝列表,除了显示粉丝的基本信息之外,还要显示当前用户是否关注了这个粉丝,以便前端显示。

对于关注列表来说,如果被关注对象是用户的话,除了显示用户的基本信息之外,还要显示当前用户是被这个用户关注,以便前端显示。

推拉模式下的 Feed 流

微博的新鲜事功能介绍:关注好友的动态(好友的点赞和发表的问题等),关注了某个问题,这些都是 feed 流的一部分。

在知乎中的 feed 流主要体现于:关注用户的评论行为,关注用户的关注问题行为。

feed 流主要分为两种,推模式和拉模式。推模式主要是把新鲜事推送给关注该用户的粉丝,本例使用 Redis 来存储某个用户接受的新鲜事 id 列表,这个信息流又称为 timeline,根据用户的唯一 key 来存储;拉模式主要是用户直接找寻自己所有关注的人,并且到数据库去查找这些关注对象的新鲜事,直接返回。

推模式主要适合粉丝较少的小用户,因为他们的粉丝量少,使用推模式产生的冗余副本也比较少,并且可以减少用户访问的压力。

拉模式主要适合大v,因为很多僵尸粉和非活跃用户根本不需要推送信息,用推模式发给这些僵尸粉或者非活跃用户就是浪费资源。所以让用户通过拉模式请求,只需要一个数据副本即可。同时如果是热点信息,这些信息也可以放在缓存,让用户首先拉取这些信息,提高查询效率。

使用 feedhandler 异步处理上述的两个事件,当事件发生时,根据事件实体进行重新包装,构造一个新鲜事,因为所有新鲜事的格式是一样的。需要包括:日期,新鲜事类型,发起者,新鲜事内容,然后把该数据存入数据库,以便用户使用 pull 模式拉出。

为了适配推送模式,此时也要把新鲜事放到该用户所有粉丝的 timeline 里,这样的话就同时实现了推和拉的操作了。

使用爬虫对网站进行数据填充

安装 Python3.x 并且配置环境变量。同时安装 PyCharm ,安装 pip。

安装好以后,先熟悉 Python 的语法,写一些例子,比如数据类型,操作符,方法调用,以及面向对象的技术。

因为数据是要导入数据库的,所以这里安装 MySQLdb 的一个库,并且写一下连接数据库的代码,写一下简单的crud进行测试。

使用 requests 库作为解析 HTTP 请求的工具,使用 beautifulsoup 作为解析 html 代码的工具,请求之后直接使用 css 选择器匹配。即可获得内容。

当然现在我们有更方便的工具 pyspider,可以方便解析请求并且可以设置代理,伪装身份等,直接传入 url 并且写好多级的解析函数,程序便会迭代执行,直到把所有页面的内容解析出来。这里我们直接启动 pyspider 的 web 应用并且写好 Python 代码,就可以执行爬虫了。

知乎:先找到问题,再把问题下所有的回答进行爬取,最后把问题和评论一起处理。

将项目部署到 Linux 虚拟机

因为该项目只是个练手的 demo,没有必要买服务器,所以就打算直接部署到虚拟机上,把整个软件开发的流程过一遍。安装的是 VMware,下载的镜像是 CentOS 7 x86_64,依次安装了 JDK 1.8、Tomcat 8、MySQL 8.0 和 Redis(所有的配置过程网上博客都写得很详细,这里不加赘述)。

通过 Xshell 6 连接虚拟机。

把从 IDEA 编译导出的 jar 包发到虚拟机的文件夹,通过 java -jar 文件名.jar 将项目部署到 CentOS 上,当看到下面两个红色矩形框中的信息时,说明部署成功。


在主机上通过虚拟机的 ip 和对应的端口访问网页(相关功能请自行 fork 后导入 IDEA 并启动,在这里简要贴出几张效果图以便参考):



功能扩展

  • 用户注册,邮箱激活流程
  • 管理员后台管理
  • timeline 推拉结合
  • 个性化首页,timeline 更多事件
  • 搜索结果排序打分
  • 通过 MQ 实现解耦、异步和削峰

......