政工干部 优点

时间:2025-02-27 01:59 人气:0 编辑:招聘街

一、政工干部 优点

在日常工作中应重点钻研政工领域国家政策、理论、工作技能及业务知识,并且具有较强的实际问题解决能力。

政工干部应具备较强的语言表达能力,牢牢把握交流技巧与方法,日常生活当中应重视知识累积,可通过阅读与观看书籍、新闻以及报告等方式积累知识,并加强自身语言表达能力。

同时政工干部应善于和群众交流、善于向领导进行工作汇报,在对群众进行政策解读时应该有针对性地运用讲解语言,深入浅出地解读,使各层次群众均可理解政策内涵。

二、政工干部指哪些岗位?

政工干部岗位如下

专职党总支、党支部书记

在行政系列宣传、宣教部门中直接从事思想政治工作的专职人员

企业工会的负责人,宣教、组织、研究、女工部门中直接从事思想政治工作的专职人员

企业共青团组织负责人和宣传、组织部门中专职从事思想政治工作的人员

兼有政工或技术工作的人员,应按有关规定在其主要工作岗位参加专业技术职务的评聘。

总之,政工系列的岗位主要是指从事党政管理、宣传教育、工青群众团体工作的专职岗位。政工岗位人员一般要求评聘政工系列职称,由高到低为:高级政工师、政工师、助理政工师、政工员。

三、描写政工干部的诗句?

记得当年草上飞,战锦方为大问题。斥鷃每闻欺大鸟,昆鸡长笑老鹰非。君今不幸离人世,国有疑难可问谁?这是毛主席为悼念政工元帅罗荣桓的诗句。罗帅跟随毛主席从井冈山到长征,抗日战争,解放战争立下了不朽功勋。

四、政工干部优缺点?

政工干部就是专门做员工思想工作的,就象军队里的指导员.

员工平时思想上有什么波动啊,嘴巴上有什么牢骚啊,暗地里有什么意见啊.你都要尽量去了解清楚.然后想办法稳定他们的思想,调动他们的积极性.平息他们的情绪.

政工干部比较鲜明的优点:就是一副和蔼可亲的样子.

政工干部比较鲜明的缺点:就是婆婆妈妈象唐僧一样.

五、政工干部培训自我鉴定?

政工干部培训结束后,每一位接受培训的政工干部都要选写自我鉴定。自我鉴定是针对培训内容,结合自己的工作实际,写出自己那些地方能够完成上级党组织交给的任务,还有哪些地方存在着不足之处,对照培训要求今后努力的方向,更踏实地做好本职工作,这样培训的目的基本上达到了。

六、公安政工干部岗位职责?

公安局内部也是有很多机构,如政治部,人事处,宣传处,办公室等部门,在政治宣传部门工作得民警一般成为公安政工民警,其工作职责就是负责政治宣传教育,负责党政党建工作。

七、组工干部和政工干部区别?

组工干部和政工干部的主要区别在于:

1、工作职责范围不同,组工干部(即组织工作干部)是负责党组织工作的,如党员和党组织的管理;政工干部(即政治工作干部)是负责全员思想政治工作和宣传教育。

2、任职人员的政治面貌要求有所不同,组工干部必须由党员干部担任,而政工干部除党员干部外也可以由非党员干部担任。

八、如何当好新时期的政工干部?

一、政工干部要不断强化自身素质,做到业务精、作风正、能力强

首先,合格的政工干部综合素质要“硬”.新时期的思想政治工作者可以说具有政工干部和管理干部的双重身份和职能,新的角色提出了新的工作标准,转变思想观念、突破传统模式、跟得上形势变化、向复合型人才发展……

这就要求政工干部在抓好政治理论学习的同时,更要重视业务知识的学习,不断拓宽知识面,努力提高做好本职工作的水平和适应未来工作的能力,通过精选学习内容,系统地掌握思想政治工作的相关专业知识,不断强化思想政治工作的理论基础,才能全面提高政工干部的综合素质,使政工干部既具备研究政策的能力和探索管理途径的能力,又具有扎实的理论基础和较丰富的工作经验,为更好地融入港口生产经营管理,更好地配合行政工作,适应港口改革发展和新形势的需要创造条件。其次,合格的政工干部工作作风要“实”.

一是要树立求真务实、勤奋上进的作风。政工干部要有针对性地多深入基层调研、了解情况,要勤于动脑,真抓实干,将安排的工作谋划好,增强处理问题的预见性;

二是要树立精干务实、严谨高效的作风。要高效率、高质量地开展工作,善于抓重点、抓关键,成为多面手,提高处理复杂问题的能力;

三是要树立亲和但不失原则的作风。要充分发挥政工干部的优势,贴近职工,有效沟通,同时必须要求自己严格遵守党纪、政纪和规章制度,严于律己,明白做人,踏实做事,以一名合格党员干部的形象出现在职工群众中间。

此外,政工干部自身对本职工作的性质要有深刻的理解和执着的精神,要把服务对象赞成不赞成、满意不满意作为检验自身服务工作质量和效率的根本标准,针对服务对象广泛的工作特点,坚持从强化服务意识,提高服务质量入手,力求做到对待群众政治上关心、生活上贴心、服务上诚心、遇事将心比心,以朗朗的工作作风,以朴实无华、不计名利、无私奉献的工作精神,教育和感染人,让广大干部职工亲身体会到合格的政工干部是实实在在干实事的人,思想政治工作不是简单的说教主义。

再次,合格的政工干部创新观念要“强”.一是要对履职范围有新认识,在做好本职工作的同时加强管理知识的学习,可以采取集中与自学相结合的方式,加强业务学习,全面了解生产组织、经营管理、安全质量、装卸设备、工艺流程等方面基本业务知识,力求实现政治工作与经济工作的更好融合,使政工干部成为既掌握本职业务,又通晓生产管理知识的复合型人才;二是要学习和尝试不同的工作方法,丰富和创新学习教育活动内容,深入做好信息和调查研究工作,依靠组织及组织资源解决好复杂问题,并且要加强上下级和部门之间的交流,确保工作质量和工作效率。除此之外,服务对象的广泛性和多层次性还要求政工干部具有多种能力。

二、政工干部要在思想政治工作中求创新、求落实、求实效

第一,工作思路求创新。一是思想观念创新,通过多种形式启发干部群众解放思想,更新观念。在工作指导上,强调在加强的前提下改进,在继承的基础上创新。尽管思想政治工作不断受到各种社会流行风的干扰,但要强化思想政治工作力度不减少,思想政治工作形式多样不断线。二是方式方法创新,在坚持思想政治工作的超前性、针对性和实效性的同时,努力探索形式的多样性。根据新形势新情况的不断变化,善于在实践中探索符合实际情况的思想政治工作新路子,力争做到舆论宣传与思想疏导相结合,思想教育工作与常规工作相结合,落实工作与具体的人和事相结合。

第二,工作内容求落实。思想政治工作是维护人们思想稳定,解决工作中出现的矛盾,提升职工整体素养,确保工作顺利推进的工作。思想政治工作不是简单的说教,而是一项保障事业顺利稳定发展的实际工程,因此,只有围绕实际中心工作,把思想政治工作落到实处,才能增强思想政治工作的活力。

新形式下的政工干部要敏锐的把握服务对象的思想活动规律,使思想政治工作有依托和载体,通过抓学习教育、座谈讨论、组织活动、解决问题等基本环节,采取有力措施具体抓落实,使广大职工在过程中形成思想互动、产生心灵共鸣,看到事业发展的巨大潜力,增强信心,激发干劲,以高涨的凝聚力推动整体工作的快速发展。

第三,工作效果求实效。以人为本,注重关爱,是增强思想政治工作实效性的法宝。具体操作要注重几个方面:

一是坚持人性化管理,注重人文关爱。坚持以理服人、以事感人、以情动人,将思想政治工作与广大职工的生活实际有机结合。政工干部要定期深入基层班组,通过加强与班组长联系、适时参加班组活动、与班组职工谈心、个别走访等方式,把握职工的思想脉搏,使思想政治工作重心前移,增强主动性、前瞻性和实效性,密切党群、干群关系,激发职工的生产热情。

二是倡导情感感化,通过深入开展贴心支部等特色活动,落实“四主动”要求,即主动讲港口改革政策和形势任务,做好思想疏导与解疑释惑工作;主动听群众的意见和建议,真实把握群众的利益诉求;主动做服务群众的好事实事,解决职工群众关注的热点难点问题;主动改进党建活动方式,不断增强党组织的活力,努力搭建党组织联系群众的桥梁和平台,及时解决职工群众关注的热点难点问题,使职工工作顺心,生活舒心,思想政治工作就会收到事半功倍的效果。

九、政工干部的工作主要是什么?

主要工作是思想工作和组织工作。思想工作方面主要有学习、教育和经常性思想工作等方面的组织工作就比较多了,比如党的工作、基层建设、干部工作、宣传工作、保卫工作、群众工作、青年工作等等。

十、mahout面试题?

之前看了Mahout官方示例 20news 的调用实现;于是想根据示例的流程实现其他例子。网上看到了一个关于天气适不适合打羽毛球的例子。

训练数据:

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

检测数据:

sunny,hot,high,weak

结果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代码调用Mahout的工具类实现分类。

基本思想:

1. 构造分类数据。

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

接下来贴下我的代码实现=》

1. 构造分类数据:

在hdfs主要创建一个文件夹路径 /zhoujainfeng/playtennis/input 并将分类文件夹 no 和 yes 的数据传到hdfs上面。

数据文件格式,如D1文件内容: Sunny Hot High Weak

2. 使用Mahout工具类进行训练,得到训练模型。

3。将要检测数据转换成vector数据。

4. 分类器对vector数据进行分类。

这三步,代码我就一次全贴出来;主要是两个类 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 测试代码

*/

public static void main(String[] args) {

//将训练数据转换成 vector数据

makeTrainVector();

//产生训练模型

makeModel(false);

//测试检测数据

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeTrainVector(){

//将测试数据转换成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失败!");

System.exit(1);

}

//将序列化文件转换成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件转换成向量失败!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean参数是,是否递归删除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean参数是,是否递归删除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成训练模型失败!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("检测数据构造成vectors初始化时报错。。。。");

System.exit(4);

}

}

/**

* 加载字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加载df-count目录下TermDoc频率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1时表示总文档数

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要从dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用贝叶斯算法开始分类,并提取得分最好的分类label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("检测所属类别是:"+getCheckResult());

}

}

相关资讯
热门频道

Copyright © 2024 招聘街 滇ICP备2024020316号-38