作者归档:hightman

迫不及待发布 xunsearch-1.4.6 正式稳定版

这一周多以来,努力的调试和测试,终于消除了迄今发现的所有异常退出、死锁、内存泄露等BUG,因此迫不及待地在今天发布 xunsearch-1.4.6 正式稳定版,以便让大家立即享受最畅快稳定的 xunsearch 搜索。

最近版本发布有点快,带来不便甚感抱歉,但这次真的是稳定下来了。在此强烈强烈地建议所有用户升级到这个最新稳定版!!

Xunsearch 是免费开源的专业全文检索解决方案,旨在帮助一般开发者针对既有的海量数据,快速而方便地建立自己的全文搜索引擎。全文检索可以帮助您降低服务器搜索负荷、极大程度的提高​​搜索速度和用户体验。

官方网站:http://www.xunsearch.com

Snip20130321_2

再次修订 xunsearch-1.4.5-dev 解决内存 BUG

再次深刻体会用 C 的可怕之处了,不过纠错过程也是快乐有趣的。这次用一个 xunsearch 用户访问压力较大,数据也较多,升级到最新的 1.4.4 后仍然还会出现内存 BUG,无奈之下他采用定时重启的办法先避开。

感谢用户信任把 ssh/root 发给我,这个周末我仔细跟踪追查,辅助 gdb, core 文件等手段,再次找到3-4处存在的内存隐患,并重新修改了线程取消的处理行为,对待用户更为友好。

至此,问题全部解决,再观望一下。即将发布 1.4.5,这阵子给 xunsearch 用户们带来频繁升级不便之处敬请谅解啊,但确实能安心解决问题。

PS:Linux 上的多线程被取消时,如果不是常规的取消点而是阻塞的系统调用,居然是直接 abort() ……

1.4.5-dev 开发版下载地址:http://www.xunsearch.com/download/xunsearch-full-dev.tar.bz2

激动,终于找到 xunsearch-1.4.x 以来的潜伏 BUG

BUG 是这样的,不断有用户反馈说 xunsearch 会出现 signal 11 等各种意外的挂掉。虽然内部的保护和重生机制能保持进程自动重启,但还是非常影响用户体验,甚至偶尔还会出现内存泄露。

再多次 debug 无效后,导出 core 文件分析发现 11 信号来自 malloc 调用,这说明前面的堆内存用法错误或越界破坏了 malloc 内部维护的数据才会导致。

于是根据少得可怜的 backtrace 信息搜寻,很快定位到了问题函数 get_queryparser ,代码是这样的,大家别看后面先自己找找问题在哪?

/**
 * Get a queryparser object from cached chain
 */
static Xapian::QueryParser *get_queryparser()
{
	static struct cache_qp *head;

	pthread_mutex_lock(&qp_mutex);
	for (head = qp_base; head != NULL; head = head->next)
	{
		if (head->in_use == false)
		{
			log_debug("reuse qp (ADDR:%p)", head);
			break;
		}
	}
	if (head == NULL) /* alloc new one */
	{
		debug_malloc(head, sizeof(struct cache_qp), struct cache_qp);
		if (head == NULL)
		{
			pthread_mutex_unlock(&qp_mutex);
			throw new Xapian::InternalError("not enough memory to create cache_qp");
		}
		log_debug("create qp (ADDR:%p)", head);
		head->qp = new Xapian::QueryParser();
		log_debug("new (Xapian::QueryParser *) %p", head->qp);
		head->next = qp_base;
		qp_base = head;
	}
	head->in_use = true;
	pthread_mutex_unlock(&qp_mutex);

	head->qp->clear();
	return head->qp;
}

各位看到这可能还是并没感觉出问题,最大的问题就是 “static”,完全不应该出现在这,由于前面复制代码的时候把全局定义的宣告直接 COPY 过来于是保留了这个  static 关键字。

这还不打紧,后面不是有互斥锁吗?可是多线程调用和调度完全是不可确认的,在锁之外做了 return,在高并发压力下 return 的 head->qp 或许已经不是当年的那个 head 了。。。

于是就出现了内存混乱!!!这问题牵挂了我整整三天,这三天连发三个 xunsearch 版本,实在抱歉啊!!!

malloc 调用时产生 SIGSEGV

xunsearch searchd 在大压力下仍然很容易出现 sigsegv(11信号,内存非法访问),导出 core 文件进行分析调试发现,这个信号经常发生在 malloc() 系统调用上。

查了一些相关资料发现以下注解:

malloc can segfault for example when the heap is corrupted. Check that you are not writing anything beyond the bounds of any previous allocation.

大概哪儿非法溢出写入内存了,因此会导致这个结局。这下依赖库有点多,调查有点难,先看看!

自定义信号处理,同时又想生成 core dumped 文件

在 UNIX 环境编程时,通常会在收到异常信号时定义自己的处理函数做一些善后工作。

常见的如 SIGABRT,SIGSEGV 信号的默认行为是生成 core 文件然后终止进程,但是当您自定义处理函数后将不再生成 core 文件,但这又非常不利于调试寻找问题。

这里有个婉转办法可以两者兼得,就是在自定义信号处理函数中,恢复默认的处理行为,然后再给自己发送一个信号。示范代码

#include <stdio.h>
#include <signal.h>

static void sig_abrt(int sig)
{
   // put your codes HERE ... 
   printf("run sig_abrt()\n");
   // 还原信号默认处理行为并给自己发送同一个信号
   signal(sig, SIG_DFL);
   raise(sig);
}

int main()
{
  signal(SIGABRT, sig_abrt);
  printf("My PID: %d\n", getpid());
  raise(SIGABRT);
  sleep(100);
}

UNIX 环境多线程编程的几点注意

这个标题写得有点大,其实只是这几天在追踪修复 xunsearch 搜索进程(多线程)死锁时碰到的一系列可能问题的总结和记录。

1. 线程取消时一定要注意“取消点”,特别容易导致死锁
2. 多线程处理信号时谨防在信号处理时,其它线程又产生了别的信号从而引发不可预测的后果,该屏蔽就暂时屏蔽掉,或者加入相关的变量来判断。
3. 多线程交叉判断的全局变量,最好加上 volatile 关键字
4. 结束进程时如无特殊要求建议直接用 _exit() 而不是 exit()
5. … 慢慢补充 …

xunsearch-1.4.3 中文搜索,大幅提升扛压能力

非常开心能在今天发布 xunsearch-1.4.3 正式稳定版,这是一个 bugfix 版本。

上个版本很大程度解决了死锁问题,但用户陆续反应仍然会出现进程假死的问题。在多名网友用户的热心配合和反馈下和我们的不断努力下,做了多项改进和调整,加强了多线程下的锁机制。经过高强度的多次压力测试,不再出现任何死锁的情况。

强列建议所有的 xunsearch 用户升级使用这个最新的稳定版本!!!

主要更新如下:

1. 加强 scws_fork 在多线程下的锁机制
2. 再度完善搜索线程池大压力下的死锁问题(感谢几位热心用户的配合反馈)
3. 美化 util.SearchSkel 生成的搜索骨架效果(采用 bootstrap)
4. 加入 Yii 扩展的包装代码,位于 sdk/php/wrapper/yii-ext/

官方网站:http://www.xunsearch.com
下载地址:http://www.xunsearch.com/download/xunsearch-full-latest.tar.bz2
代码仓库:https://github.com/hightman/xunsearch
修改日志:https://github.com/hightman/xunsearch/commits/1.4.3
CHM手册:http://www.xunsearch.com/download/xs_php_manual.chm

Xunsearch 是免费开源的专业全文检索解决方案,旨在帮助一般开发者针对既有的海量数据,快速而方便地建立自己的全文搜索引擎。全文检索可以帮助您降低服务器搜索负荷、极大程度的提高搜索速度和用户体验。

高性能:后端是采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。

简单易用:前端是使用脚本语言编写的开发工具 (SDK),目前仅支持 PHP 语言。API 简单清晰,开发难度极低,提供全中文的示例代码、文档、辅助脚本工具等。

全功能:除支持基础的自定义分词、字段检索、布尔搜索外,还直接支持用户急需的相关搜索、拼音搜索、搜索建议等专业功能。

DEMO 截图:

 

纯 PHP 实现并支持 Keep-Alive 和并行抓取的新版 HttpClient

前段时间有抓取数据的需求,考虑到驻留长时抓取的性能需求,不可能一次一个 file_get_congents 调用,即便使用 curl 扩展可以解决并行抓取,但似乎也无法发挥出 Keep-Alive 的优势(即一次连接,多次请求)。

因此使用纯 PHP 代码开发了这个类库,是一个比较完整的 Http 客户端,主要特色:

* 1) 纯 PHP 代码实现,无需依赖任何扩展
* 2) 允许设置各种 HTTP 头,完整的支持 Cookie
* 3) 支持 301/302 重定向识别,可设置最多跳转的次数
* 4) 支持 Keep-Alive 连接,重用于同一主机下的其它请求
* 5) 支持 https 访问(需要 PHP 开启 ssl 扩展)
* 6) 支持 POST 表单的文件上传
* 7) 支持同时并行处理多个请求

其中TCP连接采用异步方式,并行处理采用 stream_select() 多路IO轮循实现,也支持回调函数处理HTTP响应结果。

最新源码:https://github.com/hightman/pspider/blob/master/lib/HttpClient.class.php

简要示范:

require 'HttpClient.class.php';

function test_cb($res, $req, $key)
{
   echo '[' . $key . '] url: ' . $req->getUrl() . ', ';
   echo 'time cost: ' . $res->timeCost . ', ';
   echo 'size: ' . number_format(strlen($res->body)) . "\n";
}

$http = new HttpClient('test_cb');

// 全部 URL 抓取完毕时一并返回,传入单个 URL 或数组组成的多个 URL
// 第一次请求可能因为域名解析等原因较慢
// 可以自行构造 HttpRequest 直接用 IP请求更快
$results = $http->get(array(
  'baidu' => 'http://www.baidu.com/',
  'sina' => 'http://news.sina.com.cn/',
  'google' => 'http://www.google.com.sg/',
  'qq' => 'http://www.qq.com/',
));

// 键名不变,值为 HttpResponse 对象
//print_r($results);
//您可以通过 HttpClient::debug('open'); 会详细打印很多信息。