社交网络为用户进行「个性化推荐」的做法,是否会导致人们「难以接触到意见相左的人」?

发布时间:2017/01/03 20:01:41 投稿: 网友投稿

手机阅读投诉本文

导读: 【YiqinFu的回答(211票)】: Facebook 几位数据科学家 2015 年在 Science 上发文,表示“用户对信息的主动筛选是导致他们接收信息单一的主要原因,网站的新鲜事算法排序对此影响较...

【YiqinFu的回答(211票)】:

Facebook 几位数据科学家 2015 年在 Science 上发文,表示“用户对信息的主动筛选是导致他们接收信息单一的主要原因,网站的新鲜事算法排序对此影响较小”。文章遭到学术界的尖锐批评,被某些学者称为“洗白”论文。争议集中在该研究的样本和结论两方面。

目前我们对“算法排序是否阻碍多元信息传播”这个问题还没有统一答案。但社交媒体普及不过才几年时间,日后应该会有更多权威研究。

--

先来看 Facebook 的这项研究。研究分析了 2014/07/07 到 2015/01/07 半年来用户在个人主页上看到及点开的新闻链接。研究人员计算了每位用户和每个新闻链接的“政治倾向分数”,由此判定哪些内容和用户意见相左。(政治在这里是一个非常广泛的概念。总统竞选是政治,堕胎、转基因也是政治。)

文章的核心发现就是下面这幅图:

可以看出,如果 Facebook 随机向用户展示全网正在被分享的内容(忽略好友关系),自由和保守派看到的内容有超过 40% 都来自对方阵营。好友关系(第二列)大幅减少了这个比例,让信息变得更单一,因为保守派的朋友多是保守派,自由派的朋友多是自由派。

再看右边两列:算法排序筛掉了 5% 与保守派意见相左的内容,8% 与自由派意见相左的内容。而用户有选择性的点击进一步筛掉了与他们意见相左的内容,分别是保守派 17%,自由派 6%。

由此,研究人员得出如下结论:

我们毫无疑问地证明,在限制 Facebook 多元信息传播这个问题上,个人选择比算法的影响更大。

--

文章发表后遭到学术界的尖锐批评。主要问题如下:

1. 该研究的样本不是随机选取的,而是限定在“一周登录 4 - 7 次”且“在 Facebook 上标注了自己政治倾向”的用户。虽然样本数量很大,但并不具代表性,样本选取极有可能对结果有影响。比如,Facebook 绝大多数用户(91%)没有标明政治倾向,对政治可能没那么关心,那么算法排序对他们的影响可能会更大。论文不该用“毫无疑问地证明 Facebook 上...”这种话来误导读者,让大家以为论文的结论适用于所有 Facebook 用户。

论文作者对此回应说,标注了政治倾向的用户一般更积极参与政治,所以研究这些人也是很有价值的。以后当然也可以研究其他群体。

2. 不能因为“算法”的影响比“个人选择”的影响小,就给算法“洗白”。学术界很早就发现“人们更可能选择浏览和自己意见相似的内容”,这点没有争议。大家想知道的只是算法排序有没有加剧这一现象。

密歇根大学一学者批评说,这篇论文就好比烟草公司选择对煤炭工人进行研究,发现吸烟给人带来的危害不如比挖炭。正确的结论应该是“吸烟和挖炭都对人有害”,就好比 Facebook 这篇论文的结论应该是“算法和人工选择都限制了用户接触与他们意见相左的内容”。“算法排序”和“人工选择”在这里是 and(和),不是 or(或)。

3. 就算我们来比较“算法”和“个人选择”哪个影响更大,论文的结论也只在保守派这里成立。算法筛掉了 8% 与自由派用户意见相左的内容,而他们主动选择只删掉了 6%。

4. 因为只有 Facebook 内部有数据,所以其他人无法重复这个研究。如果另一组学者按照同样的方法研究,会得到相同结论吗?Facebook 的算法每天都在变,我们可以确定今年的算法和去年的算法对信息的筛选效果一样吗?

--

其实解决这些问题最简单的办法就是 Facebook 自己做一个实验,实验组的新鲜事页面经过算法排序,对照组的没有算法参与,完全逆序排列。但 Facebook 前几年因为在用户身上做实验已经遭到社会批评且涉嫌违法,所以再次大规模做实验估计不太可能。更重要的是,Facebook 作为商业公司,对算法排序是否加剧大众意见两极化也不太感兴趣。

希望以后学者可以设计厉害的实验来回答这个问题。不管是观察还是做实验,都要牵扯到数据科学、计算机、计量、心理学/社会学/传播学/政治学理论,确实是有意思的跨学科问题。

--

相关研究:

  • 超过半数用户都不知道他们在 Facebook 看见的内容是经过算法排序的;当他们看不见好友发的东西时,很多人以为是好友故意不让他们看
  • 我们在 Facebook 上互动最多的内容是“强关系”好友分享的,但我们看到的新鲜内容大都由“弱关系”分享
  • 大众媒体是否加剧民众意见两极化?答案也是“我们无法确定”(见 Prior, Gentzkow, Iyengar)
--

其他数据话题下的回答:

「数据会说谎」的真实例子有哪些?

如果「男女同工不同酬」是事实,为什么公司不全部招聘女性,以获得同等的生产力并节约成本?

为什么有时候我们以为有很多人追的女生实际上不仅单身还没人追?

恋人的性格互补好,还是相同好?

--

Ask me anything: Yiqin Fu 的值乎 - 说点儿有用的

【刘飞的回答(156票)】:

互联网活动家 Eli Pariser 在 TED 上做过一次演讲,叫做《Beware online "filter bubbles"》。

他表达了一些观点,我加上自己的诠释,跟大家分享下。

1.

互联网带来了极大的自由和民主,信息流动更加顺畅。但这种流动正在发生潜移默化的变化,而且变化是不可见的、隐形的。

比如作为自由派的 Eli,平时喜欢在 Facebook 上浏览政治新闻,也会看很多保守派的信息。有一天,他发现那些保守派的消息突然都消失不见了。因为 Facebook 认为相比这些,他会更喜欢自由派的信息。这种个性化的推送实际上是删掉了那些信息。

Google 也会根据不同人去呈现不同的搜索结果。即使退出账号,Google 也能通过 57 种属性来判断你的情况(所在位置、电脑和浏览器的类别等),给出个性化的结果页面。

更多互联网公司甚至传统媒体都在做个性化定制。这样的结果就是,互联网展示给我们的信息,将都是我们喜欢看的,而不是我们应该看的

2.

这样造成的结果就是,我们每个人都给自己制造了一个「过滤器泡沫(filter bubbles)」:

蓝色的是我们自己感兴趣的泡沫,边界就是我们的过滤器。比较可怕的是:过滤器并非是我们自己定义的我们意识不到自己在过滤器中;我们并不知道外界有什么

3.

我们每个人对信息的冲动,往往分为两种。Eli 举的例子是,我们都想看《罗生门》,这是部经典电影,但我们更忍不住看很多遍《神探飞机头》这样的爆米花电影。在阅读信息上,我们也倾向于先看那些刺激的、有趣的,再看没那么好玩的但重要的。但是,个性化的算法只以我们点击的情况作为判断,它是分辨不出差别的。

就像我们自己是可以判断哪些事情是「重要紧急的」「不重要紧急的」「重要不紧急的」,但算法可能只能判断紧急这个维度。也好像我们懂得做一个营养均衡、又不会影响食欲的食谱,但个性化算法会只给我们特别喜欢的垃圾食品(信息)。

以上。可以看 Eli Pariser 的 TED 演讲,或者读一下他的书《The Filter Bubble (豆瓣)》。

目前的个性化推荐,自然是会给我们形成这样的过滤器,但只要我们有所警惕,并且能够掌握主动,依然还是可以避免跟意见相左的人完全隔离的。有两件事可以做:

1. 算法设计师们做的个性化算法不仅仅考虑「喜欢程度」一项,也要考虑「重要程度」、「内容丰富程度」等等。

2. 在个性化定制上,给我们一些选择权和控制权。比如可以主动关注关键词、分类和用户。或者,能够有地方让我们看到删掉/隐藏掉的那些信息。

当然啦,对于那些并不关心意见相左的人的发言的,这些都不重要。在任何一个时代,他们这类人都只会跟同意自己的人交流,只活在自己的世界里。

【何明科的回答(60票)】:

说一个不完全相关但有一定参考意义的例子。在某二手车网站的信息流中,以前是按照一定的原则排序(原则包括发布时间、车源质量、热门程度等等),每个用户来到网站看到的页面是完全一致的。但最新的改进在信息流中插入一个“猜你喜欢”的模块,位置是在原来的第二条和第三条信息之间。这个模块根据用户之前的行为,展现四条用户可能最喜欢的车源。效果如下图。

比较“猜你喜欢”这个推荐模块上线前后的效果,采用的指标是各个位置的帖子在整个页面的点击占比。灰色曲线是推荐模块上线前的情况,点击占比基本是随着位置的往后逐步降低,非常符合经验知识。橙色曲线是推荐模块上线后的情况,点击占比在位置第3位至第6位之间(也就是推荐模块的区域)出现峰值。

而有意思的是,邻近推荐模块的第1-2位以及第7-8位,点击占比陡降而出现波谷。当正常帖子的位置足够远离推进模块后(比如从第11位起),点击占比基本恢复正常,与无推荐模块的点击占比曲线基本完全重合。

推荐模块因为更加精准或者更加符合用户的口味,大幅吸走其邻近正常帖子的点击,对于上下两位的四个正常贴,点击降幅均在80%左右。下图充分说明这个趋势,负数表明在推荐模块的上方,正数表明在下方。从第11位(即推荐模块下方的第5位)起,基本和无推荐的情况没有显著差别。

(注:正常帖子的基准线是,推荐模块上线前同样位置帖子的点击占比。)(注:正常帖子的基准线是,推荐模块上线前同样位置帖子的点击占比。)

下图是按位置各车源的点击累计占比图(CDF),除去在推荐车源出现的前六位,有推荐的情况比无推荐的情况,点击更加分散在长尾。

最后的结果,在排除各类噪音的影响之后(总体UV数量及质量的变化),车源点击的数量在上线推荐模块后,增加了2.9%。

回到问题本身,虽然这不是一个社交网络的案例,但是仍然可以发现:推荐的出现,让其附近随机的信息受到的点击大幅减少,从而让用户大幅减少探索其他新鲜信息的机会(幅度在80%以上)。如果我们做一步大胆的跳跃和假设,在社交网络上,把用户A看着顺眼和看着不太顺眼(某种程度上等于意见相左)的用户摆在一起,用户A会有较高的概率只留意顺眼的,而忽略不顺眼的,于是更不容易接触到那些意见相左的用户。

……更多文章请到数据冰山 - 知乎专栏

……更多回答请到何明科的主页

【AndyLee的回答(666票)】:

好巧,今天上午翻译完的达沃斯世界经济论坛的视频就提到了这个,去年我翻译的那个达沃斯视频也提到了这个。

我先来给大家讲个故事。

有一群被锁在地洞里的人,这群人的只能看到地洞的一面洞壁。

而在他们身后,有人拿着各式各样的物件从火把面前走过。这群人就能看到这些物件投射在那面洞壁上的影子。

而这群人以为这些影子就是真实的世界,他们会争论这些影子究竟是什么,甚至会对这些影子提出系统化的理论,来解释它们究竟是什么。

这就是柏拉图给我们讲的洞穴寓言。他讲这个故事究竟是想表达些什么呢?当然不是提醒我们不要把自己锁在地洞里。他是说,我们每一个活在这个世界上的人,其实都像那些被锁在地洞里的人一样,把虚假的影子当成了真实的存在物。

我眼前的这台黑色的笔记本电脑,我右手边彩色的魔方,还有书架上的一排排书。这些看起来真实存在的物体,真的都真实存在吗?在这个回答里,我不会再深入讨论这个问题。大家可以参考我的另一篇文章:人生最大的错觉 - 心理学·哲学·先知的告诫 - 知乎专栏

而将这个洞穴预言应用到每一个个体身上,就形成了培根的四假相说中的洞穴假相。

去年翻译的那个达沃斯视频,是以全球最大的搜索引擎,谷歌为案例。谷歌对于这个地球上的很多人来说,已经是互联网的入口。而很多人们就是通过互联网了解这个世界。但是,谷歌会根据用户的搜索记录,为每一个用户的搜索结果进行定制,谷歌公司称之为优化。这一方面的确能帮助用户更好地获得他想要获得的信息,但另一方面却让不同的人用一个搜索词,看到了不同的东西。当时演讲给展现的PPT,我已经记不清楚了。大概是支持穆斯林的人和反对穆斯林的人用同一个词,搜索到了不同的图片、事件和观点。也就是说,谷歌正在给每一个人挖掘一个属于他自己的地洞。

其实微博和知乎的设计也是如此。我很久没有用微博了,就让我以知乎为例。如果是采用旧版的知乎首页,那么我们会在首页发现我们所关注的人的动态,他们给回答了什么问题,写了什么文章,给什么内容点了赞。

但每个人所关注的对象是不同的,所以每个人从知乎首页中所发现的内容也是不同的。我的首页里会有“如何理解Quine的‘存在就是成为约束变量的值’这句话”这样的奇怪的问题。而你的首页里也许会有我的首页中从来没有出现过的,如何评价某某歌星,这类问题。我从来不关注那些“传教”,“心灵鸡汤”,“中国传统智慧”,“励志”,“感情故事”等问题。所以我也从来没有严肃对待这些东西的价值。而它们自然都是有价值的,至少从它们广受欢迎的角度来看,我能从中学到不错的修辞学技巧。

简而言之,每一人都在用同一个知乎,但每一个人同时又在用不同的知乎。

其实,在真实的社区中,每一个人都会有自己的“地洞”。但成熟的公共空间和大家都关心的公共话题,强迫人们走出自己的地洞,参与到社群生活中来,成为亚里士多德所称的,真正的政治动物。但在网络虚拟社区中,我们可以屏蔽那些不想了解的信息。我们可以只关注那些我们愿意关注的人、事、物。真实的社区里,“地洞”需要一铲子一铲子辛苦地构造。而虚拟的社区里,“地洞”只需要按几个键就能完工。

每一个人类都有一种固化的认知模式,我们现在称之为证实偏见。这是指,每个人都愿意去寻找信息去证实一个结论,而不是寻找信息来反驳一个结论。在互联网里,我们能发现海量的信息,能为任何结论找到大量的证据。一个人能在互联网上找到支持“轮回转世”的证据,能找到“外星人绑架地球人”的证据,能找到“尼古拉斯·凯奇”其实是吸血鬼的证据。这种证实偏见会加剧我们已有的偏见。如果你认为同性恋是一种疾病,女人天生不如男人,气候其实没有变暖,抽烟对身体无害,那你在互联网上一样能找到大量支持这些结论的证据。如果说知识是有正面价值的,那么无知其实并不是负面价值,错误的信息才是。

我们对此并没有太好的解决方法。似乎,我们有权不听那些我们不爱听的话,不看那些我们不爱看的人,不去了解那些我们不愿意了解的真相。每个人似乎都有权拿起铲子,挖一个属于自己的地洞。而在网络社区中,每一个人都能给自己的世界进行私人定制,不需要费力去挖地洞,谷歌和知乎已经给我们提供了地洞。当然,谷歌在某个隐藏的很深的角落里,给大家提供了“免于定制搜索结果”这么一个选项。

不过可惜的是,连意识到了自己身处地洞的我,都依然不会选这个选项。我能做的,只是把自己的地洞挖的尽可能大,偶尔去别人家的地洞串串门,仅此而已了。

【jacklee的回答(11票)】:

事实上,我们如果不撞南墙的话,无论相反的意见有理还是无理,我们都不会接受的。

【扣小米的回答(15票)】:

虽然我没有数据来说明这个问题,但我个人的感觉是这种说法没错,这也是我不喜欢“个性化推荐”的原因之一。

有一句话说的好,“如果你手里面有一把锤子,那你看什么东西都是钉子”。这句话在不同人的眼中会有不同的理解,对我来说,这句话正好说明了“思维定势”的可怕之处,当你的心中有一个预设好的结论,那你看什么东西都会向这个结论靠拢。

这是因为人的思维都是有惰性的,当看到与自己的想法相似的观点时,会自然而然很轻松的去接受,而遇到向左的观点时,总是会在心中激起或大或小的波澜,可能这个波澜很小很小,但还是要花费心思向另外一个方向去思考。

如果你曾经发出过这样的感慨:“这都什么时代了,现在还有谁会相信XXX说的话啊?”,“这一派观点真是太白痴了,有谁还会看啊?”,或者“这个部门能说点人话吗?这么虚假的话谁会相信啊?”那么你很有可能就已经陷入了这种思维定势之中,因为我们每个人对世界的认识都是片面的,看到的事情和观点永远会受到自己的经验和知识的限制,在你的视野之外,与你意见向左的观点或许正在蓬勃发展,而被蒙蔽的却是你自己。

当然这并不是“个性化推荐”造成的,这是人的思维上的弱点,只不过“个性化推荐”更加扩大了这种趋势,让人们更容易的接触到了自己喜欢的观点,增加了获取不同观点的成本。

类似的问题还会出现在获取的内容方面,“个性化推荐”会推送给你那些你感兴趣的内容,比如我喜欢足球,那么足球新闻的推送出现的频率会远远高于其他内容,而其他同样重要的领域,比如文化艺术,只会离我越来越远,而自己在这方面的知识储备只会越来越少。

正是基于以上的原因,我现在从来不看 facebook 推送的新闻,也不看 Youtube 推荐的视频,而且我把手机上所有的新闻和其他app的推送都关闭了(只留下“突发新闻”的提醒,当然还有足球新闻。。),希望能够尽量避免自己的思维成为各种app的奴隶。同时很多时候看新闻上的还是新浪这种传统的门户网站,iPad上看(德语)新闻用的客户端是“十分落后”的 MSN News(据说因为经营不善刚关闭了中文版网站。。),因为它基本上不会为我主动推送什么内容,而是会选取各家报纸的重要观点呈现出来。

当然在现在科技这么发达的时代,在互联网上不管用什么客户端看新闻,都免不了各种算法为自己有形或无形的新闻推荐。是的,其实以上这些方法都只能起辅助作用,最重要的还是自己保持一颗开放和包容的心态,愿意接收各种各样的观点,并对世界保持一颗好奇心。

让我们受到限制的不是“个性化推荐”,而是我们自己的内心。

【Samuel.GONG的回答(38票)】:

我试着从另一个角度去解读这个现象。

我认为这个问题里的因果恰恰是相反的。

不是『个性化推荐』导致人们『难以接触到意见相左的人』。

而是人们不愿意去接触意见相左的人,导致社交网络开发出『个性化推荐』的功能。

从心理学角度看,人类的认知存在着证实偏差(Confirmation bias)的。也就是说,人们倾向于通过接收与自己相符的观点去强化自身的固有观念;以及通过攻击和无视与自己相左的观点去避免固有观念受到冲击。

维基百科:Confirmation bias is the tendency to search for, interpret, favor, and recall information in a way that confirms one's preexisting beliefs or hypotheses, while giving disproportionately less consideration to alternative possibilities.)

如果一个社交网络天天推送的都是我不认可的观念,我可能会觉得它没价值,因此删了它。

产品经理们为了避免这样的用户流失,都开始想方设法的去了解用户偏好,投其所好。这样基本上是个双赢的结果。比如近期口碑很好的网易云音乐,就将个性化推荐的算法优化到很高的程度。

回到问题本身,『个性化推荐』会带来怎样的影响。

我认为不会有什么影响。人类的个体本来就会带着偏见存在,这个事实是从来没有改变过的。无论有没有这个功能,大多数人都不会愿意去接触意见相左的人——这个过程对于绝大多数人而言本来就是非常低效,详见各类撕逼;反正对于极少数愿意这么去做的人,多的是途径可以去了解。

【宋一松的回答(118票)】:

利益相关:在Facebook工作时负责新鲜事的个性化排序。

我的看法:

是否「难以接触到意见相左的人」,取决于用户本身是否有开放的心态去包容意见相左的人,这道理在现实生活中成立,在社交网络上也成立,加了「个性化推荐」这种根据用户量身打造的功能更加成立。

下面开始讲故事。

1. 一个来自Facebook的实验

2010年夏天,Facebook的数据科学团队对随机抽选的2亿用户做了一个简单但巧妙的对比实验,来研究我们常说的「回音室效应」:社交网络究竟有没有使我们只听到我们爱听的声音?

实验组用户的新鲜事信息流被动了些手脚:那些来自用户好友的分享链接被随机的隐藏了。通过比较实验组和对照组用户之后的转发/分享行为,Facebook的数据科学家们得出了几个结论:

  • 结论1: 相比起不太熟的Facebook好友(弱关系),用户更愿意转发自己特别亲密的人(强关系)所分享的链接。
  • 结论2: 如果是某个强关系好友分享的链接被Facebook隐藏掉,用户自己也容易通过其他渠道看到这个链接。
  • 结论3: 但如果是某个弱关系好友分享的链接被Facebook隐藏掉,用户很难再在其他地方发现这个信息。

结论1+结论2说明了「回音室效应」的普遍性。「回音室效应」无关于社交网络,无关于个性化推荐,它根植于人性本身:人们总是倾向于认同来自亲密的人的观点。

结论2+结论3说明了社交网络本身对「回音室效应」的抑制作用。因为我们在社交网络上的大多数好友都是弱关系,在总量上来自弱关系信息的影响力远远超过强联系所以虽然人们重视强关系,但大部分知识还是来自弱关系。

更重要的是,这种抑制作用是只有线上的社交网络才能做到的。如果没有互联网,信息几乎无法在弱关系之间传播,更别提打破回音室了。社交网络本身不是回音室的创造者,而是回音室的颠覆者。

2. 那么,「个性化推荐」做了什么?

首先,先讲清楚一个问题,「个性化推荐」的目的是什么?这些科技公司花大价钱开发推荐算法,绝不是为了个性化而个性化。

准确的说,他们是为了通过个性化推荐提高信息分发的效率,使得用户在网站上更活跃,更有粘性。

更简单的说,他们是为了让用户爽。

从这个角度讲,「个性化推荐」的结果完全取决于用户本身的倾向。如果用户能包容那些和他意见不同的人,喜欢看他们的发言,甚至和他们讨论互动,那么一个正确实现的个性化推荐算法必然会把这些人分享的信息重点推送到用户面前。反之,如果用户只接受那些他认同的意见,长此以往他的信息流里就会只剩这些东西了。

一个追求信息多样化的用户,不需要担心个性化推荐会扭曲他的信息渠道。相反地,基于他生成的个性化推荐必然先天包含信息的多样化。

3. 从来就没有什么救世主

是的,从来就没有救世主,也不存在什么大魔王。信息技术只是工具,充其量算守序中立。即使没有了个性化推荐,用户还是有「屏蔽」和「拉黑」。如果用户包容不了异己,他们早已有充足的手段来给铲除他们,给自己打造完美的回音室,根本轮不上个性化推荐。

是否「难以接触到意见相左的人」,取决于用户本身是否有开放的心态去包容意见相左的人,是否愿意理解现实的复杂,是否愿意欣赏世界的多样,是否愿意撇开立场去接受不同的声音。

这道理在现实生活中成立,在社交网络上也成立。这不是个性化推荐的责任,不是社交网络的责任,这是每个人自己的责任。

---------------------

注:

1. Facebook的研究:facebook.com/notes/face

2. 我关于Facebook News Feed排序算法的简单介绍:Facebook Edgerank 的算法是什么? - 宋一松的回答

阅读完本文还推荐您阅读: 你为什么不愿意在社交平台上加

转载请保留本文链接:http://www.vbgudu.com/html/20170103/116231.html

免责声明:文章由网友投稿投稿,不代表本站的观点和立场!如有问题,请与本站联系。
本周看点
  • 进击的巨人第二季在哪看(b站)?进击的巨人2 进击的巨人第二季在哪看(b站)?进击的巨人2

     《进击的巨人》第二季的播出不出意料引来了很多人的关注,有不少喜欢这部动漫的人对于进击的巨人2很是期待,但是却不知道进击的巨人第二季在哪看?下面十万个为什么网小编将为你解答进击的巨人第二季在哪看(b站)?进击的巨人2有哪些疑点? ...

  • 朴槿惠崔顺实什么关系,崔顺实是谁,崔顺实 朴槿惠崔顺实什么关系,崔顺实是谁,崔顺实

     朴槿惠崔顺实什么关系 朴槿惠和崔顺实是多年的闺蜜。 60岁的崔顺实被韩国媒体称为与64岁的朴槿惠亲如姐妹。朴槿惠在20岁出头失去母亲之后认识比自己小四岁的崔顺实,迄今已逾40年。 对于父母早逝、与亲兄妹关系疏远且始终没有结婚的朴槿...

  • 泰国王储资料简介 泰国王储丑闻有哪些? 泰国王储资料简介 泰国王储丑闻有哪些?

     综合外媒报道,泰国国王普密蓬10月13日因病逝世,王储玛哈哇集拉隆功将继位为国王。这位王储实在是差强人意。因为他的行事作风无法代表一个国家。下面为什么网带你看看泰国王储资料简介 泰国王储丑闻有哪些? 泰国王储资料简介 玛哈哇集拉...

  • 神奇百货CEO王凯歆破产了吗?投资人为什么 神奇百货CEO王凯歆破产了吗?投资人为什么

     年纪轻轻,坐拥千万,管理一个巨大的公司。这是每一个人的梦想。但是17岁神奇百货总裁王凯歆做到了。但是很显然,这名95后的创业并不是太好走,最近17岁少女总裁王凯歆最近的日子不好过。神奇百货被外界传越来越不靠谱。下面为什么网带你...

  • 韩国总统是如何推选的?任期多久?朴槿惠会 韩国总统是如何推选的?任期多久?朴槿惠会

     韩国总统任期多久? 以前,韩国的总统是可以无限连任的,但是一个人长时间执政,会出现很多错误的决策,所以1960年修宪:李承晚下台后,过渡政府对宪法进行广泛修改,无条件规定公民权利;由总统制改为责任内阁制,总统由国会议员选举,任...