蛙蛙牌自动提取Tag算法
摘要:Tag系统是Web2.0的一个招牌应用,如果你有一个经营了好几年的论坛,是不是也想生成自己的一套TAG。别听他们说什么语义WEB,文本聚类算法,TIIDF,余弦定理,相似度算法啥的高深算法(我一个也没整明白),跟我来,简单的计算词频来提取tag的效果就很好。
分析;把每个帖子进行分词,然后把词的出现频率倒序排列,取出前N个就作为TAG了。当然要一个板块一个板块的提取tag,如果把军事板块和情感板块的帖子混杂在一起提取tag,提取出来的tag相关性比较差一些,如果分开提取,相关性要好一些,整体效果好。好多时候做训练算法,语料很重要。先分词吧,自己写分词算法也是弄个词库,自己用正向最大匹配来分词,或者两个两个字的来当词,所以还不如直接用中科院那套呢,直接使用了隐式马尔可夫算法,效果虽说不是很好吧,也能满足需求了,对吧。具体测试代码、分词组件、词库下载见以下链接
http://www.cnblogs.com/edison1024/archive/2006/05/03/390832.html
得点了他那个广告才能显示下载地址,你就点吧,人家提供下载也不容易。分词后要去除停止词,停止词自己从网上搜索一份,如果不去除停止词,最后肯定是“了”,“的”,“我”等词出现的频率最高,你不会把这些常用词做tags吧,呵呵。当然NICTCLAS是可以标注词性的,你可以分词后把语气词、副词等虚词去了,这样更好一些,但我就懒得做了,直接分词、去除停止词两步。
完了计算每个词出现的频率就好说了,弄一个全局的字典,每个词出现一次增加一个计数,第一次出现先添加到字典,并计数为0,最后把出现次数在某个阈值以上的词插入到数据库里,这就是你要的tag了,先来看一下我的效果吧(大家别笑哦,我是从一个美女贴图论坛提取了一些帖子的主题当语料的,为了不降低博客园的PR值,就贴图,不贴文字了)。

开始上代码
先贴分词

namespace
WawaSoft.Search.Common



{

public sealed class WawasplitWorder



{

static List<string> _stopWords = new List<string>();

static NICTCLAS _nictclas;

public static void Init()



{

try



{

//1、初始化分词器

_nictclas = new NICTCLAS();

_nictclas.OperateType = eOperateType.OnlySegment;

_nictclas.OutputFormat = eOutputFormat.PKU;


//2、加载停止词

using (StreamReader sr =

new StreamReader("data//StopWords.txt", Encoding.Default))



{

string temp;

while ((temp = sr.ReadLine()) != null)



{

_stopWords.Add(temp);

}

}

}

catch (Exception ex)



{

Trace.TraceError("初始化分词器错误:{0}", ex);

}

}



/**//// <summary>

/// 分词并去除停止词

/// </summary>

/// <param name="input"></param>

/// <returns></returns>

public static IEnumerable<string> SplitWords(string input)



{

Console.WriteLine(input);


//预处理,不处理那个分词组件有可能内存读写错误,那玩意儿写的不太健壮,容错性8行的说,呵呵

input = input.Replace("/", "");

input = input.Replace(".", "");

string result = string.Empty;

List<string> ret = null;

try



{

//1、分词

_nictclas.ParagraPHProcessing(input, ref result);

ret = new List<string>(


result.Split(new string[] 
{ " " }, StringSplitOptions.RemoveEmptyEntries));


//2、去除干扰词

List<string> needRemove = new List<string>();

foreach (string word in ret)



{

foreach (string s in _stopWords)



{

if (string.Compare(s, word, false) == 0)



{

needRemove.Add(word);

break;

}

}

}


foreach (string removeWord in needRemove)



{

ret.Remove(removeWord);

}

}

catch (Exception ex)



{

//错误的时候除了打出错误详细信息后打出出错的上下文,传入的参数,临时变量等有助于从trace里分析错误,要不死了也不知道怎么死的

Console.WriteLine("{0}/r/n{1}",input,ex);

}


return ret;

}

}

}


计算词频

class
AutoGenTag



{

//大字典,保存每个词的词频,key是词,value是词频

static Dictionary<string,int> _hashlist = new Dictionary<string, int>(10240);


public static void Excute()



{

//1、取出帖子,越多越好,越多提取的准确性越高

IEnumerable<string> source = Dao.GetPostTitles();

foreach (string str in source)



{

//2、把每个帖子主题分词

IEnumerable<string> words = WawasplitWorder.SplitWords(str);

if(words == null)

continue;


//3、把每个词插入到大字典里,以前存在就把词频加1

foreach (string word in words)



{

if(_hashlist.ContainsKey(word))



{

_hashlist[word]++;

}

else



{

_hashlist.Add(word,0);

}

}

}

//4、把大于某个阈值(这里是20)的词插入数据

foreach (keyvaluePair<string, int> pair in _hashlist)



{

//如果一次循环插入几万个词,sqlSERVE每秒提交的批会很高,有可能cpu瞬间很高,Sleep(0)能让cpu长得慢点儿,Sleep(1)也行,不过我不知道这两个的区别。或者直接 用sqlserver的bulkcopy 性能也8错

Thread.Sleep(0);

if (pair.Value > 20)



{

Console.WriteLine("{0}-{1}",pair.Key,pair.Value);

Dao.addtags(pair.Key, pair.Value);

}

}

}

}


代码写的比较糙,大家凑合看,都是随手写的。最后写一个sql查出tag并按词频倒序排列,选出一个datatable,用datalist一绑定就O了。当然了,我这是提取标签的土法,大师们看了别吐,呵呵。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。