蜘蛛文库

大数据自我评价(优选4篇)

蜘蛛文库 11

大数据自我评价 第1篇

1.熟悉hadoop生态圈,能够熟练操作hadoop生态圈各个产品。2.熟悉spark和scala语言。3熟悉sparkstreaming实时处理。4熟悉kafka消息中间件。5对ELK架构(logstash,elasticsearch,kibana)具有一定的了解。6.对关系型数据库mysql,postgresql有一定的了解。7对nosql数据库的hbase,redis有一定的了解。8.工作认真负责,为人踏实苦干,具有团结精神。9.学习能力较强。善于接受新技术。

大数据自我评价 第2篇

项目时间:2016-09到至今

项目名称:宜聚网数据统计分析

项目描述:

项目介绍

我的职责

1.搭建项目集群环境

表的结构设计,如贴源表、明细表

4.问题处理以及Spark和hive相关优化

项目时间:2016-09到至今

项目名称:广告竞价分析系统

项目职责:

l 网络时代和智能手机的到来让更多的人群接触到互联网,形成数量庞大的互联网数据,大数据技术的发展让细分人群的特性成为可能。

l 负责组织进行需求讨论,带领项目成员进行项目产品开发,要克服在研发过程中出现的技术难点。

l 对数据进行清洗,并完成相关工作,将得到的数据进行标签化处理,如app标签、商圈标签、关键字标签等。然后利用Spark Graphx进行统一用户识别,制作用户画像,最后存入mysql。达到节省成本,精准投放广告。

大数据自我评价 第3篇

1.结构化:因为物种比如人的适应度越来越差,需要合作和依赖别人,所以面对其他人要抱着合作和包容利用的心态;联想到现在的大数据生态圈甚至系统,好的技术框架需要其他框架支持。eg:Hadoop生态圈里面的技术是互相依赖的,hdfs、 yarn 、hbase  、kafka 等需要zookeeper2.自由化:因为分子不稳定性会有比如布朗运动,所以跳槽现在正常并且自由化职业人会更多,以后要把自己做出 U盘模式,有能力的人可以自由工作,本身一个技术框架就是设计简单的。Hadoop生态系统里面的框架设计目标和实现上是简单的,kafka就是解决高吞吐量存储,zookeeper就是解决一致性3.信息化:因为物种越进化越高级就会越需要从外界吸取能量以维持生计和存在,所以当下就越来越需要多方面而丰富的知识和专业的深度学习,更多的人为了可以在社会立足读研读博总结:1.谁都不是一个人一个技术就能解决所有问题或者成功,需要合作和搞好关系2.把自己变得简单化既是专业化,设计要目标和实现上面的简单单一化3.自己不断的学习(技术博文)和人文知识(新闻、趣事、跨学科)

大数据自我评价 第4篇

1.专业知识扎实,并有一定的实操经验。研究生专业是通信与信息系统,学的比较广泛,物联网系统、机器学习、人工智能等都有涉及,和导师一起做过一些项目,对行业技术有大体的把握。

2.对技术充满热情,善于学习,具有较强的沟通能力、协调能力和项目管理经验;思维比较灵活,对事物有较强的理解和逻辑思维能力,求知欲强,也有比较好的自学能力和方法,对一门新技术和新知识可以很快的上手并掌握。

3.性格乐观向上,好学上进,适应能力和抗压力强,敢于接受新的挑战;工作积极主动,责任心强,做事耐心细致,勤奋敬业,善于思考问题,有时间观念,独立性强,有较强的团队意识和奉献精神。