金彭T90一G山区版配置参数?

时间:2024-12-11 06:04 人气:0 编辑:招聘街

一、金彭T90一G山区版配置参数?

金彭T90采用SUV造型,五门四座的承载式车身设计,底盘架设较高。车身下方的流线型凹槽,使整车显得修长气派,风格自成一家。前脸黑底饰条中间镶嵌着钢琴烤漆工艺的高亮金属logo,左右连接LED多边形亮黑大灯,颇有未来科技风的感觉。车头两侧和下方的栅格口,又呈现出自然大方的视觉效果。

金彭T90的动力系统,搭载的是3.5kw高效交流电机(其山区款最大功率是5.6kw),匹配双驱智能DC转换器,可以自由切换高低速,动力非常强劲。T90运用运动化底盘调校技术,匹配轿车级配套制动器,制动灵敏度是普通制动器1.2倍,操控体验与安全系数大幅度提升。轮胎配的是轿跑级五幅轮毂,黑白经典套色,散热性好。高性能铝合金,满足10153N力值的径向滚压冲击,远超同类别产品要求!

二、彭彭身高?

178cm

彭彭、原名彭昱畅、中国内地男演员。1994年10月25日出生江西新余市,毕业于上海戏剧学院木偶表演系。

代表作品:夺冠、闪光少女、大象席地而坐

主要成就:2020年福布斯中国名人榜第67位

三、崂山区沙子口彭家庄什么时候拆迁?

目前崂山区主要还是针对中韩街道部分区域进行改造,不过按照青岛十三五计划的内容,结合崂山区新签的几个大项目,预计在5年内将崂山打造成旅游、文化、办公为主的新崂山,你可以搜索一下看看和沙子口有关的几个新项目。而且鉴于政府以及开发商启动、资金、工期等影响,沙子口的拆迁也将是逐步的进行,具体还得看崂山区官网的公告吧

四、彭彭怎么组词?

彭的拼音和词语:拼音:【 péng】。组词:彭尸、彭勃、彭祖、彭蜞、老彭、韩彭、大彭、三彭、彭郎、彭考、彭湃、彭亨、彭濞、容彭、黥彭、彭侯、彭铿、彭月等。

彭彭【péng,péng】:盛多的样子; 音乐人名。

彭涓【péng,juā】:彭祖和涓子的并称。二人均为传说中的长寿者。

彭泽【péng,zé】:1、泽名。即今鄱阳湖。在江西省北部。又名彭湖﹑彭蠡。 2、县名。汉代始设。在今江西省北部。晋陶潜曾为彭泽令,因以"彭泽"借指陶潜。

彭蜞【péng,qí】:蟹的一种,体小少肉。

彭客【péng,kè】:新兴的积极词汇。

韩彭【hán,péng】:汉代名将淮阴侯韩信与建成侯彭越的并称。

彭越【péng,yuè】:亦写作'彭月'。 即彭蜞。

彭聃【péng,dān】:彭祖与老聃的并称。传说二人均极长寿。

彭窑【péng,yáo】:元代名匠彭均宝烧窑于霍州,制品仿北宋定窑﹐胎薄质细,净白尚素。当时称为'彭窑'。又称'新定窑

五、彭石林

彭石林:优秀的博主与作家

彭石林:优秀的博主与作家

近年来,彭石林先生以其独特的写作风格和丰富的知识深受读者喜爱。他是一位多才多艺的博主、作家和评论家,他的博客和文章充满了思想性、深度和创新。彭石林的文字不仅展现出他对文学、历史和当代社会问题的独到见解,更能带领读者思考、启发思想,并以娓娓道来的叙事将人们引入一个全新的视角。

个人背景

彭石林出生在一个教育世家,家庭的良好教育环境培养了他广博的知识和文学才华。他在早期就展现出写作的天赋,并通过自己的不断努力,逐渐成为了一位备受瞩目的作家。彭石林拥有文学学士学位和硕士学位,他的学术背景不仅丰富了他的写作素材,更为他的文章增添了学者般的深度和权威性。

博客与作品

彭石林的博客是他与读者分享观点和知识的平台,他通过博客内容表达个人的见解和观点,有时候会探讨一些热门话题或创意的故事。无论是文学评论,历史解读,还是对社会问题的探讨,彭石林总是能给读者带来全新的启示。他的文章富有独创性,且经常与时事紧密联系,引起了广泛的关注和赞誉。

彭石林的作品涵盖了多个领域,他的小说作品《时光漩涡》以其独特的叙事方式和深刻的内涵赢得了广大读者的喜爱。这本小说以厚重的历史背景为支撑,将现实与虚构相结合,让人们在欣赏故事的同时不断思考。他的散文集《灵感散落的地方》被评论家誉为具有独特魅力的经典之作,彭石林通过富有哲思的文字展现了对生活的独到感悟,让读者在其中找到共鸣。

影响力与社会贡献

彭石林不仅在文学创作领域取得了巨大的成功,他也以自己的影响力和社会贡献赢得了人们的尊重。他积极参与公益事业,并通过自己的文章和演讲,传递正能量和社会价值观。彭石林的影响力不仅限于文坛,他的观点和见解也常常在社交媒体上引起广泛的关注和讨论,对社会舆论起到了积极的引导作用。

彭石林的文章常常关注社会问题,呼吁人们关心弱势群体、关注绿色环保、倡导和谐社会等,他深入浅出的写作风格让人们容易理解,产生共鸣。通过他的文字,读者可以看到一个热爱生活、关心社会、追求进步的思想家的形象。彭石林的思想和观点通过文字传递给读者,引发了人们对于社会现象和个人价值的思考和反思。

未来展望

彭石林是一位极富潜力的作家和博主,他的写作才华和广博的知识为他的未来发展奠定了坚实的基础。我们期待彭石林能够继续发表出更多富有创意和启发性的文章和作品,以他独特的视角和笔触为读者带来新的思考。相信在他的努力下,彭石林会成为文坛上的一股强力推动力量,并对社会产生重要的影响。

六、金彭旗下品牌昆彭

金彭旗下品牌昆彭:开创时尚界新篇章

金彭旗下品牌昆彭:开创时尚界新篇章

时尚界一直是一个不断创新和变化的领域,而金彭旗下品牌昆彭不仅在这个领域取得了突破性的成就,更是开创了一个全新的时尚篇章。旗下的各个系列产品引领着时尚潮流,赋予人们与众不同的个性和风格。

革新的设计理念

昆彭品牌以其独特的设计理念而闻名,通过将传统元素与现代风格相融合,创造出一系列独特而又时尚的产品。无论是服装、饰品还是配件,昆彭都始终保持创新的步伐,不断颠覆传统的审美观念。品牌的设计师团队以前瞻性的眼光和卓越的技术,将艺术与时尚完美结合,带来了一种全新的时尚体验。

多元化的产品线

昆彭品牌的产品线非常丰富多样,涵盖了服装、鞋履、手表、眼镜、皮具等多个领域。无论你是追求简约风格的时尚达人,还是喜欢个性张扬的潮流爱好者,昆彭都能满足你的需求。各个系列产品都经过精心的设计和制作,以提供高品质和耐用性为目标,时刻关注着细节的完美。

引领时尚潮流

金彭旗下品牌昆彭一直致力于引领时尚潮流,通过与众多国际顶尖设计师的合作,不断推出独具时尚感和艺术品质的产品。无论是时装秀还是广告宣传,昆彭都能给人们带来震撼和惊喜。品牌以其独特风格和高端形象,在时尚界树立起了崭新的标杆。

金彭文化的传承

金彭旗下的昆彭品牌不仅是时尚界的领导者,更是传承着金彭文化的使者。金彭一直秉承着卓越品质和对细节的追求,将这些理念融入到昆彭品牌的每个产品中。昆彭所传达的不仅是时尚和个性,更是对艺术和美的追求。这种独特的文化基因使昆彭与众不同,成为了时尚界的瑰宝。

未来的发展

展望未来,金彭旗下品牌昆彭将继续以开拓创新的姿态发展,在设计和技术上不断突破界限。品牌将继续与更多顶尖设计师和艺术家合作,推出更多令人惊叹的产品。同时,昆彭还将加强国际市场的开拓,向全球传递金彭文化的独特魅力。

无论是时尚达人还是普通消费者,昆彭都能满足你对时尚和个性的追求。选择昆彭,选择与众不同,选择开创时尚界新篇章!

相关标签: 金彭旗下品牌昆彭,时尚潮流,设计理念,产品线,创新发展

七、宝山区友谊路到彭浦新村做什么车?

线路1:从849路 (宝山医院站)上车,坐20站至(闻喜路站)下车线路2:从159路 (盘古路友谊支路站)上车,坐22站至(三泉路临汾路站)下车线路3:从地铁3号线 (友谊路站)上车,坐8站至(江湾镇站)下车,步行约5分钟到换乘点 转850路 (江湾镇站)上车,坐6站至(共和新路站)下车

八、彭凤仙

彭凤仙:中国文学中一位引人注目的女作家

导言

彭凤仙是中国文学界备受瞩目的女作家之一。她以其深刻的洞察力和独特的创作风格,赢得了广大读者的喜爱和赞赏。本文将介绍彭凤仙的生平和作品,探讨她在中国文学史上的地位和影响。

生平

彭凤仙于XXXX年出生在中国一个知识分子家庭。在她的成长过程中,她对文学产生了浓厚的兴趣。她自幼喜欢阅读,尤其是中国古代文学作品。这种深厚的文学底蕴成为了她后来成为一名作家的基石。

彭凤仙在大学学习期间,选择了文学专业。她在学校期间表现出色,经常在文学社团中展示自己的才华。毕业后,彭凤仙决定全职投身于写作事业。她的第一部小说出版后,立即获得了评论界的好评,奠定了她在文学圈的地位。

作品与风格

彭凤仙的作品涵盖了广泛的主题,包括爱情、心理、社会问题等。她以其细腻的描写和深入的思考,将读者带入角色的内心世界,让人产生共鸣。

在彭凤仙的小说中,她经常通过生动的故事情节和丰富的人物形象,展现出不同社会群体的命运和心理变化。她对人性的探索和对社会现实的关注,使她的作品具有强烈的现实意义。

对中国文学的贡献

彭凤仙的作品不仅仅是文学作品,更是对中国社会的一种观察和批判。她通过笔下的人物和故事,揭示了社会问题的根源和人们的命运。她的作品给人以启示,引发人们对社会现状的思考。

彭凤仙的作品也对中国文学史产生了重要影响。她开创了一种新的文学风格,将现实主义与浪漫主义相结合,创作出独具一格的作品。她的独特视角和才华,为中国文学注入了新的活力。

结论

彭凤仙是中国文学界的一颗璀璨的明星。她以其出色的创作才华和对社会问题的关注,赢得了广大读者的赞赏和认可。她的作品不仅具有文学价值,更具有社会意义。相信在未来的岁月里,彭凤仙将继续创作出更多令人期待的精彩作品。

九、彭假发

彭假发:一位备受争议的假发商家

在时尚界,假发一直是备受关注的话题之一。无论是用于造型变化或者美容需求,假发都成为许多人的选择。然而,市场上假发的质量良莠不齐,消费者常常需要面对各种选择和挑战。今天,我们聚焦于一位备受争议的假发商家——彭假发,探讨其背后的故事和影响。

彭假发:品牌背景

据了解,彭假发是一家专注于设计和销售各类假发产品的品牌。成立于二十年前,该品牌在短时间内就迅速崭露头角,吸引了大批消费者的关注。其以创新设计、优质材料和多样化款式而闻名于行业内外。

产品特点和市场定位

作为一家假发品牌,彭假发的产品特点在于注重细节和舒适度。无论是长发还是短发,卷发还是直发,该品牌的假发都能满足消费者不同的需求。此外,彭假发还推出了智能假发系列,结合了科技与时尚的元素,备受年轻消费者青睐。

品质保障与售后服务

在竞争激烈的假发市场,产品的品质和售后服务显得尤为重要。彭假发以严格的质量控制和完善的售后保障体系著称。无论是产品质量问题还是售后需求,消费者都能得到及时有效的解决方案。

用户评价和口碑

关于彭假发的口碑,各种褒贬不一。一些消费者赞扬其产品质量和款式多样性,认为是物有所值;而另一些消费者却抱怨售后服务不够及时和产品质量参差不齐。作为消费者,选择一个值得信赖的品牌确实需要谨慎考虑。

未来展望与发展方向

作为一家年轻而充满活力的假发品牌,彭假发将面临更多的挑战和机遇。未来,该品牌计划进一步扩大产品线,并加强与消费者的沟通和互动。同时,彭假发将不断提升产品质量和服务水平,以赢得更多消费者的青睐。

综上所述,彭假发作为一家备受争议的假发商家,其产品质量、市场定位和售后服务备受关注。消费者在选择假发产品时,需谨慎考量各方面因素,并选择适合自己的产品。希望彭假发在未来能够不断发展壮大,为消费者带来更优质的假发体验。

十、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38