关于搜索机制的一点小建议!
#3831
Replies: 1 comment 1 reply
-
这个问题没有办法很好的解决,基本只能靠源发布者将源整理分组,用户使用分组进行搜索,但是用户小白太多了,都是直接导入书源直接就开始搜索了,没有利用好分组功能,导致搜索效率低。还有就是现在的小说防盗很厉害,导致需要频繁换源,这个操作需要搜索,导致搜索请求量大。软件搜索不会同时向几百个网站发送搜索请求的。 建议给网站套个CF,给搜索页面开质询,这样请求量应该会下来。 |
Beta Was this translation helpful? Give feedback.
1 reply
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
朋友有一个小说网站,访问人数没有多少,主要用来自己看书,但最近半年服务器资源被拉满,分析后发现资源占用主要来自于搜索,高峰期每秒上千条搜索请求,多方定位后发现几乎所有请求都来自于本软件发出的外部请求,而且几乎搜索的所有小说在网站里都没有,最后限制搜索后服务器恢复正常。下载使用软件后发现软件的搜索机制太奔放了,分享的那些书源中一个源中就包含了几百个网站,搜书的时候同时向几百个网站发送搜索请求,但这些请求除了一些热门小说,其它几乎全是无效的,这种搜索机制看起来高效,但却造成了事实上对大量源网站的ddos攻击,很多受这个问题困扰的小说网站已经关闭或者限制搜索功能了!所以你们是否能对书源中的的网站数量进行一定的限制,让分享的书源更具有针对性,不要使用这种漫天撒网的搜索方式,这样既可以提高软件的效率,也可以大大减轻源网站的压力,否则最后的结果只能是两败俱伤,源网站限制或者关闭搜索,软件无法进行搜书,相信这个结果是谁都不想看到的!
Beta Was this translation helpful? Give feedback.
All reactions