要赚钱,请趁早,你的工作无法让你安度晚年

2018 年 12 月 4 日 精读

今天给大家推荐的文章,来自我的好友——薇安。她是一位一年掌管数10亿生意的世界500强外企高管。已经是职场大咖的她,利用业余时间坚持原创,短短几个月,她的公众号就拥有40多万粉丝。她的文章有深度又接地气,我很欣赏她每一篇用心又有料的文章。


近期,她推出了自己的新书《迭代——让情商和见识成为你最大的底气》,一经上市,就在励志新书榜里销售名列前茅,里面涵盖了职业发展、个人成长、情商修炼、和自我管理四大版块,非常值得一读。

如果你想快速成长,我建议你关注她个人原创公众号:薇安说。另外如果你坚持看到末尾,会有小惊喜等着你。


这可能是我见过最优质的公众号之一了。



要赚钱,请趁早,你的工作无法让你安度晚年


文丨薇安


01


未来10年,50%的人将要失业”,这句话是李开复说的。


看奇葩大会,其中李开复的出场给我留下了非常深刻的印象。他介绍了人工智能的概念。


他说你们每天都在使用人工智能了,每一次搜素引擎的结果,都是人工智能推算出来的。它会根据你们的每一次点击,来决定下一次在你面前呈现的画面。


你们每一次的择偶,它会更知道你喜欢谁。媒婆都要失业了。这就是大数据和人工智能的力量。


他过去两年所有的投资,都是机器人管理。因为机器人可以分析所有的股票走势。它每天读新闻、读财报,然后来判断今天最该买最该卖的股票是哪一只。


李开复得过癌症,他当时用的药,很多医生都不知道它的存在。因为医疗进步很快,不是每个医生都能每天去读各种学术期刊论文,来学最新的治疗方式。所以未来把人工智能做成医疗助手,它是可以更好的帮助医生做判断和诊断。


一辆车96%的时间都是停着的。如果有一个无所不在的滴滴,当你需要出门时,一辆小车就开来了。你还有必要买车吗?这就是共享经济的无人驾驶技术。


他认为未来10年,人类50%的工作都会被人工智能取代。比如说交易员,助理,秘书,中介,这些事情,它都会比人做得更好。


以后都失业了谁会取代你的工作呢?就是人工智能。


看完李开复的话,你可能不相信。


我常想起马云说的那句话,面对新的机遇,很多人都经历过四个阶段:看不见,看不起,看不懂,来不及

 

我自己是做电商的,我非常清楚大数据的运用,消费者在电商平台上看到的每个页面都是人工智能和大数据结合的结果,我们叫做千人千面。

 

何不假设一下,如果你相信了人工智能的趋势,你有什么损失?除了更加积极为自己规划未来以外,你没有任何损失。


但是假如你选择不相信,如果未来真被李开复说中了,你的损失又是什么?你错过了提前为自己准备的机会。

 

其实,都用不着等到人工机器的时代到来。我们所有人,在当今这个时代,都面临着随时失业的可能。



02

 

很多年前有一场面试让我至今记忆深刻。那时我负责诺基亚公司运营商业务,我需要招一些有经验的大客户经理。有一份简历吸引了我,应聘者本科毕业于武汉大学,研究生毕业北大。


学历非常完美,工作经历也很惊艳。第一份工作是Compaq(康柏,美国当年PC第一大公司),第二份工作是北电(北美电信,当年全球最大的网络公司之一)。


这两间公司,你们可能没有听过,因为都早已倒闭。但是在当年绝对是最顶级的外资公司。他的这份简历亮瞎了我的眼,我迫不及待地约见了他。

 

他侃侃而谈。谈到最后,我问他,你对来我们公司发展有什么要求吗? 他沉思了一会儿说,我只有一个要求,那就是企业不要倒闭。


我不禁哑然,你为什么会担心这个?他说,因为我待过的企业,都倒闭了。企业运营不好就会裁员,对职业生涯影响很大。

 

我当时想,那是你运气不好,我们这种企业绝对不会倒闭的。由于种种原因,我最终没有招他进来,否则他进来仍然难逃企业倒闭的厄运。

 

我在诺基亚工作了9年,毕业后没多久我就加入了这家公司,亲眼见证了它起步和腾飞。诺基亚最辉煌的时候,曾经连续3-4年蝉联手机市场No.1的地位,而且是绝对的第一,遥遥领先市场第二位。


身处在业绩如此牛逼的企业里,怎么会相信企业有倒闭的一天?2010年是诺基亚的巅峰时刻,占领中国市场40%的份额。但是也就是从那一刻起,下滑不可逆转的发生了。

 

有一天中国区的一位大佬和我们开会,她说新推出的iPhone手机和诺基亚完全不能比,一点都不好用。她说完这句话后,竟然很多人附和。


我听后,当下就决定离开这间公司。因为我的家人在用iPhone, 我知道他们说的不是事实。


一个不愿面对真实竞争环境的企业,怎么可能持续成功?

 

我离开时,诺基亚仍然有35%市场份额。我当时单纯的认为,这家企业只不过辉煌不再而已。


但是,2年后,仅仅是2年的时间,诺基亚这三个字和诺基亚公司竟然在市场上消失了。

 

讲到这段历史,真是有点悲壮。这是一家以人为本的优秀企业,而我也是被这家企业一手栽培,培养成一个真正的高级管理人才。


至今我都难以相信,一家伟大的百年企业是以这样的速度消亡的。

 

诺基亚的倒闭,让我联想到那个应聘者的经历。事实再一次证明,这个世界没有什么是靠得住的,你唯一靠得住的人是你自己。


 

03

 

多年前,我曾经参加几个老板盛大的退休趴。老板在企业里工作多年,功成名就,以颇丰的财富开启幸福的退休生活。

 

而我们这代人恐怕没有这样的幸运。我们面对的竞争是如此激烈,科技也日新月异。

 

如果我们再抱着原有的思维,希望找一家靠谱的公司,然后日复一日的工作,安安稳稳的做到退休,恐怕未来带给你的只有失望

 

诺基亚的一些旧友们经历了一段艰难日子。裁员,赔偿和不停地找工作。当从天而降的危机来临时,多数人的反应都是难以适应。


这很正常,舒适区久了的人,抗风雨的能力自然下降了。人们总认为自己会在一个好企业里待上一辈子,直到退休。谁都不愿意相信,倒霉的事情会降临到自己的头上。

 

但是,环境是不会随人的意志而改变。结局往往事与愿违。


明天会发生什么,我们根本无从所知,我所知道的是这四个字:未雨绸缪

 

与其祈祷风调雨顺,不如好好想想到底如何把命运掌握在自己手里


如何能够及早的为自己的未来做好准备呢? 接下来,我分享3个建议给大家。



04


第一个建议是,请你一定要扩大自己的人脉圈子。

 

你不妨打开你的微信联系人,看看其中属于自己公司的同事的比例有多少。如果几乎全是公司同事,那么说明你的人脉圈子很窄。一旦公司发生变动将对你产生巨大的冲击。

 

等到你没有工作时再去找工作,那么你将面对被动的局面,你的机会和谈判筹码都没有优势


我的很多朋友在结束了上一份工作后,最长的用了1年多的时间才找到一份工作。可见这个过程有多么艰辛。

 

要建立什么样的人脉? 


一种是圈子里的人比如说客户,或是相关领域的,再或者是友商公司的相对应的人。


不要当别人是纯生意场上的对象,也不要因为竞争关系而心存傲慢。只有相互尊重,刻意经营,你们才有可能建立关系。


同在一个圈子,这些人脉说不定哪一天就会帮到你。


另外一种就是猎头了。 很多人说,从没有猎头找我啊。如果我告诉你,我微信常联系的猎头有上百人,你相信吗?我跳不跳槽并不妨碍我和猎头交朋友。

 

那么你一定很纳闷,我是怎么做到认识这么多猎头的呢? 


我分享一个非常好的方法给你,那就是领英(Linkedin) 或者是赤兔。


如果你是外企人员,请一定要玩转领英。因为绝大部分的猎头都会在领英上找人。


请你务必注册自己的账号,并更新简历。如果你想扩大自己的人脉圈子,请大胆的走出去! 别人不加你,你就加关别人。


如果你能找到猎头,又能对猎头进行关系维系,也许你的机会就来了。


一旦你随时有机会在身,你就再不会害怕任何环境和工作的变化想办法做到不要让自己去找工作,而是让工作来找你。



 第二个建议是,请你一定不要停止学习的脚步

 

我听过一句话:埋于80岁,死于30岁。不同的人有不同的解读。


如果我把这句话形容职场,我的理解是当他从30岁开始不再学习时,他已经“死”去了


很多人说,你看我多勤奋,每天准时来公司,从不懈怠任何工作,即便是每天做一样的工作,我也仍然很努力。

 

的确你很勤奋,但这只是体力的勤奋,并不是脑力的勤奋。你只是日复一日年复一年的工作。仅此而已。


一份工作从陌生到掌握可能需要1年甚至几年的时间,但是一旦成为熟手工,那么继续重复也就意味着学习停止了。


你可能重复工作了20年,但是你的经验,也许就只停留在开头的那3-5年。


还有很多人自我感觉超级好。哇,我多牛啊,出入五星级酒店,出去前呼后拥,客户围着我团团转……但是这真的是你牛吗?


卸掉公司的头衔,还有人认识我们吗?不要在公司的光环下,迷失了自己

 

不妨问问自己,这份工作是不是和我3年前做的一模一样?这些技能是不是我3年前就已经掌握了的?现在的我的工作综合实力和3年前一样吗?如果答案是是,那么你或许已经放弃了提高自己。

 

这几年来,我从没有停止学习的脚步。我看很多的书,我参加各种培训,我花钱去参加社团,去听讲座,在网上付费约见专家向他们请教。


这个时代真的超酷,只要你想学,无数个平台朝你开放。在行,分答,微课堂,付费课堂...太多太多了。没有任何时候像现在一样,知识如此触手可及。


很多时候不是世界遗忘了你,而是你关闭了通往世界的大门


你对自己有要求吗? 你了解现在社会的大趋势吗?你会带着好奇心尝试各种新鲜事物吗?你舍得花钱去培训吗?你可以每周坚持看书学习吗?


如果你想进步,就请跟上时代的步伐。努力提高自己的综合实力,而不是无助的焦虑。


不要成为战略上懒惰,战术上勤奋的人。用心规划自己的未来,努力提升自己的综合能力



 第三个建议,请想办法开发自己的斜杠能力

 

斜杠这个词近几年非常流行。简而言之就是除了你的正职工作以外,你还具备其他才能和身份并从中获得收入。


比如我们一般名片的头衔只有一个:某某公司的经理。但是斜杠就意味着你有多重身份:某某公司的经理/画家/时间管理达人/作家。

 

想成为斜杠青年,最重要的是开发自己的优势。


如果你在某些方面有优势,你不断地开发它,并成为这个领域的专家,那么你的斜杠身份就能建立

 

我的一位朋友C,2年前被公司辞退了,当时她非常惶恐,一下子没了收入,而且一时半会也找不到工作。有一天她的朋友想帮C打发时间,就请C去她家帮忙进行收纳整理。


C收纳完后受到朋友赞不绝口的称赞。 C突发奇想,有没有可能将收纳变成自己的一个优势,努力创造机会呢?于是C潜心钻研收纳这个领域,结果她真的成功了。现在她成为收纳达人,到处授课,收入远超于以前的工资收入。

 

我们身处的这个时代前所未有的多样化。如此细分且需求丰富的市场,给我们每一个有专长的人,都带来的无限的打造多重身份的机会。

 

你说你没有专长怎么办?

答案很简单,去找! 


想一想你做什么事最带劲?你做什么事别人对你很认可?你最羡慕什么样的人?别人拥有的怎么样的能力,让你很崇拜?从这些地方着手。


一旦发现自己的兴趣和爱好点,则通过大量的阅读和市场的研究,不断培养自己的专业能力,慢慢地让这个能力成为你的特殊标签

 

我就喜欢健身,怎么办?想一想有没有可能往健身教练方向发展? 

我是个服装痴,就喜欢扮靓,怎么办? 想一想有没有可能从事形象设计?

我养多肉特别有经验,有没有机会?去在行申请做行家啊。

我做PPT很好,能不能开发?去做线上培训。

......

 

总之,努力发掘自己在某个领域的爱好,并不断打磨,成为这个领域的专家人物。即使不考虑变现能力,从培养终生的爱好和专长方面考虑,也绝对值得投入时间和精力。


以我本人为例,在去年8月以前,我绝对不敢相信自己可以在1个小时内写出3000字的文章。我也想象不到,在短短的几个月,仅凭一只笔杆,我就能拥有几十万粉丝。


很多读者告诉我,喜欢我的文章,看我的文章得到启发。这些鼓励让我充满动力和信心,即使再苦再累,也要在写作这条道路上一直走下去。


一旦你培养出自己的斜杠身份,你就不会害怕公司发生的任何变化



05


李开复说,人工智能这么厉害,50%的人都要失业了,我们该怎么办?

 

他建议更好的发挥我们的人文文化,艺术,美这些事情


人工智能记忆非常好。但是它真的不懂什么是美,不懂什么是艺术。

 

我们过去被生活所迫都走向了理工和商学院,而那些人文艺术反而放掉了。也许机器取代了重复的工作后,反而给我们更多机会去发现生活的美。

 

李开复说的人工智能,也许离我们很远,也许就在不远的将来。


但是,在这个瞬息万变的世界里,我们每一天都面临着未来的不确定性。难道我们就真的无计可施了吗


不是的!我们还是可以控制一样东西,那就是我们自己的命运。


不要听任命运的摆布,那是loser 的行为。真正勇敢又智慧的人,都会把命运牢牢地掌握在自己手里


-THE END-


最后说一下,本文作者薇安的新书《迭代——让情商和见识成为你最大的底气》火热上市啦,如果你想获得更快速的成长,少走弯路,这本书一定值得一看。



我是薇安

微信公众号:薇安说(viannhe6)


嗨,小伙伴们,我是薇安姐。我的公众号,名叫“薇安说”(ID:viannhe6)。我写的文章都来自于我自己多年的学习和工作经验。沟通,情商和人生智慧也都出自于我的体会。许多小伙伴都评价薇安说的文章,是他们人生道路上的一盏明灯。


长按一键关注薇安

 


薇安这些火爆全网的文章你一定值得看

别再刷屏了!请停止这种无效的努力

高情商的人都拥有这3个特点

曲筱绡这5个特点,学会1个你都是赢家


薇安为大家准备了重磅福利大礼


关注公众号 薇安说 后,在薇安说后台回复:沟通,你将免费听到一节好评爆棚的薇安主讲课程:《高效沟通黑科技,让你10倍提升沟通力!》,这节课截至目前已经有近2万人收听,并且听过的粉丝们直呼获益匪浅,对思维的转变影响巨大。


如果你也想了解人际沟通的秘诀,成为一个高情商的人,赶紧关注 薇安说 ,回复“沟通”就可以听啦。

长按下图二维码,和我一起关注薇安

一起勇猛精进,一起活到淋漓!


一键关注薇安,一起快速成长吧



以上内容为精读君的友情互推,推荐文案由对方提供,请大家独立思考,根据自己的喜好选择适合的公众号。谢谢大家的理解。

登录查看更多
点赞 0

In this paper, we address the problem of searching for semantically similar images from a large database. We present a compact coding approach, supervised quantization. Our approach simultaneously learns feature selection that linearly transforms the database points into a low-dimensional discriminative subspace, and quantizes the data points in the transformed space. The optimization criterion is that the quantized points not only approximate the transformed points accurately, but also are semantically separable: the points belonging to a class lie in a cluster that is not overlapped with other clusters corresponding to other classes, which is formulated as a classification problem. The experiments on several standard datasets show the superiority of our approach over the state-of-the art supervised hashing and unsupervised quantization algorithms.

点赞 0
阅读1+

Different types of Convolutional Neural Networks (CNNs) have been applied to detect cancerous lung nodules from computed tomography (CT) scans. However, the size of a nodule is very diverse and can range anywhere between 3 and 30 millimeters. The high variation of nodule sizes makes classifying them a difficult and challenging task. In this study, we propose a novel CNN architecture called Gated-Dilated (GD) Networks to classify nodules as malignant or benign. Unlike previous studies, the GD network uses multiple dilated convolutions instead of max-poolings to capture the scale variations. Moreover, the GD network has a Context-Aware sub-network that analyzes the input features and guides the features to a suitable dilated convolution. We evaluated the proposed network on more than 1,000 CT scans from the LIDC-LDRI dataset. Our proposed network outperforms baseline models including conventional CNNs, Resnet, and Densenet, with an AUC of >0.95. Compared to the baseline models, the GD network improves the classification accuracies of mid-range sized nodules. Furthermore, we observe a relationship between the size of the nodule and the attention signal generated by the Context-Aware sub-network, which validates our new network architecture.

点赞 0
阅读1+

Knowledge Graph Embedding methods aim at representing entities and relations in a knowledge base as points or vectors in a continuous vector space. Several approaches using embeddings have shown promising results on tasks such as link prediction, entity recommendation, question answering, and triplet classification. However, only a few methods can compute low-dimensional embeddings of very large knowledge bases. In this paper, we propose KG2Vec, a novel approach to Knowledge Graph Embedding based on the skip-gram model. Instead of using a predefined scoring function, we learn it relying on Long Short-Term Memories. We evaluated the goodness of our embeddings on knowledge graph completion and show that KG2Vec is comparable to the quality of the scalable state-of-the-art approaches and can process large graphs by parsing more than a hundred million triples in less than 6 hours on common hardware.

点赞 0
阅读4+

Knowledge graphs, on top of entities and their relationships, contain another important element: literals. Literals encode interesting properties (e.g. the height) of entities that are not captured by links between entities alone. Most of the existing work on embedding (or latent feature) based knowledge graph modeling focuses mainly on the relations between entities. In this work, we study the effect of incorporating literal information into existing knowledge graph models. Our approach, which we name LiteralE, is an extension that can be plugged into existing latent feature methods. LiteralE merges entity embeddings with their literal information using a learnable, parametrized function, such as a simple linear or nonlinear transformation, or a multilayer neural network. We extend several popular embedding models using LiteralE and evaluate the performance on the task of link prediction. Despite its simplicity, LiteralE proves to be an effective way to incorporate literal information into existing embedding based models, improving their performance on different standard datasets, which we augmented with their literals and provide as testbed for further research.

点赞 0
阅读2+

This paper shows that a simple baseline based on a Bag-of-Words (BoW) representation learns surprisingly good knowledge graph embeddings. By casting knowledge base completion and question answering as supervised classification problems, we observe that modeling co-occurences of entities and relations leads to state-of-the-art performance with a training time of a few minutes using the open sourced library fastText.

点赞 0
阅读2+
Top