12306.cn 真的有网上说得那么差吗?

发布时间:2017/01/12 16:00:06 投稿: 网友投稿

手机阅读投诉本文

导读: 【羊太守的回答(22票)】: 由 http:// 12306.cn 谈谈网站性能技术? http:// news.cnblogs.com/n/128612/ ?技术帖 文/陈皓 12306. cn 网站挂了,被全国人民骂了。我这两天也在思考这个事,我想以这个事来粗略地和大家讨论一下网站性能的问题。因为仓促,而且完...

【羊太守的回答(22票)】:

12306.cn谈谈网站性能技术?news.cnblogs.com/n/128612/?技术帖

文/陈皓

12306. cn 网站挂了,被全国人民骂了。我这两天也在思考这个事,我想以这个事来粗略地和大家讨论一下网站性能的问题。因为仓促,而且完全基于本人有限的经验和了解,所以,如果有什么问题还请大家一起讨论和指正。(这又是一篇长文,只讨论性能问题,不讨论那些 UI,用户体验,或是是否把支付和购票下单环节分开的功能性的东西)

业务

任何技术都离不开业务需求,所以,要说明性能问题,首先还是想先说说业务问题。

  • 其一有人可能把这个东西和 QQ 或是网游相比。但我觉得这两者是不一样的,网游和 QQ 在线或是登录时访问的更多的是用户自己的数据,而订票系统访问的是中心的票量数据,这是不一样的。不要觉得网游或是 QQ 能行你就以为这是一样的。网游和 QQ 的后端负载相对于电子商务的系统还是简单。
  • 其二有人说春节期间订火车的这个事好像网站的秒杀活动。的确很相似,但是如果你的思考不在表面的话,你会发现这也有些不一样。火车票这个事,还有很多查询操作,查时间,查座位,查铺位,一个车次不行,又查另一个车次,其伴随着大量的查询操作,下单的时候需要对数据库操作。而秒杀,直接杀就好了。另外,关于秒杀,完全可以做成只接受前N个用户的请求(完全不操作后端的任何数据, 仅仅只是对用户的下单操作 log),这种业务,只要把各个服务器的时间精确同步了就可以了,无需在当时操作任何数据库。可以订单数够后,停止秒杀,然后批量写数据库。火车票这个岂止是秒杀那么简单。能不能买到票得当时告诉用户啊。
  • 其三有人拿这个系统和奥运会的票务系统比较。我觉得还是不一样。虽然奥运会的票务系统当年也一上线就废了。但是奥运会用的是抽奖的方式,也就是说不存在先来先得的抢的方式,而且,是事后抽奖,事前只需要收信息,事前不需要保证数据一致性,没有锁,很容易水平扩展。
  • 其四订票系统应该和电子商务的订单系统很相似,都是需要对库存进行:1)占住库存,2)支付(可选),3)扣除库存的操作。这个是需要有一致性的检查的,也就是在并发时需要对数据加锁的。B2C 的电商基本上都会把这个事干成异步的,也就是说,你下的订单并不是马上处理的,而是延时处理的,只有成功处理了,系统才会给你一封确认邮件说是订单成功。我相信有很多朋友都收到认单不成功的邮件。这就是说,数据一致性在并发下是一个瓶颈
  • 其五铁路的票务业务很变态,其采用的是突然放票,而有的票又远远不够大家分,所以,大家才会有抢票这种有中国特色的业务的做法。于是当票放出来的时候,就会有几百万人甚至上千万人杀上去,查询,下单。几十分钟内,一个网站能接受几千万的访问量,这个是很恐怖的事情。据说 12306 的高峰访问是 10 亿 PV,集中在早 8 点到 10 点,每秒 PV 在高峰时上千万。
多说几句:
  • 库存是 B2C 的恶梦,库存管理相当的复杂。不信,你可以问问所有传统和电务零售业的企业,看看他们管理库存是多么难的一件事。不然,就不会有那么多人在问凡客的库存问题了。(你还可以看看《乔布斯传》,你就知道为什么 Tim 会接任 Apple 的 CEO 了,因为他搞定了苹果的库存问题)
  • 对于一个网站来说,浏览网页的高负载很容易搞定,查询的负载有一定的难度去处理,不过还是可以通过缓存查询结果来搞定,最难的就是下单的负载。因为要访问库存啊,对于下单,基本上是用异步来搞定的。去年双 11 节,淘宝的每小时的订单数大约在 60 万左右,京东一天也才能支持 40 万(居然比 12306 还差),亚马逊 5 年前一小时可支持 70 万订单量。可见,下订单的操作并没有我们相像的那么性能高。
  • 淘宝要比 B2C 的网站要简单得多,因为没有仓库,所以,不存在像 B2C 这样有N个仓库对同一商品库存更新和查询的操作。下单的时候,B2C 的网站要去找一个仓库,又要离用户近,又要有库存,这需要很多计算。试想,你在北京买了一本书,北京的仓库没货了,就要从周边的仓库调,那就要去看看沈阳或是西安的仓库有没有货,如果没有,又得看看江苏的仓库,等等。淘宝的就没有那么多事了,每个商户有自己的库存,库存分到商户头上了,反而有利于性能。
  • 数据一致性才是真正的性能瓶颈。有人说 nginx 可以搞定每秒 10 万的静态请求,我不怀疑。但这只是静态请求,理论值,只要带宽、I/O够强,服务器计算能力够,并支持的并发连接数顶得住 10 万 TCP 链接的建立的话,那没有问题。但在数据一致性面前,这 10 万就完完全全成了一个可望不可及的理论值了。
我说那么多,我只是想从业务上告诉大家,我们需要从业务上真正了解春运铁路订票这样业务的变态之处。

小结

写了那么多,我小结一下:

0)无论你怎么设计,你的系统一定要能容易地水平扩展。也就是说,你的整个数据流中,所有的环节都要能够水平扩展。这样,当你的系统有性能问题时,“加 3 倍的服务器”才不会被人讥笑。

1)上述的技术不是一朝一夕能搞定的,没有长期的积累,基本无望。

2)集中式的卖票很难搞定,使用上述的技术可以让订票系统能有几佰倍的性能提升。而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法。

3)春运前夕抢票且票量供远小于求这种业务模式是相当变态的,让几千万甚至上亿的人在某个早晨的 8 点钟同时登录同时抢票的这种业务模式是变态中的变态。业务形态的变态决定了无论他们怎么办干一定会被骂。

4)为了那么一两个星期而搞那么大的系统,而其它时间都在闲着,也就是铁路才干得出来这样的事了。

前端性能优化技术

要解决性能的问题,有很多种常用的方法,我在下面列举一下,我相信 12306 这个网站使用下面的这些技术会让其性能有质的飞跃。

一、前端负载均衡

通过 DNS 的负载均衡器(一般在路由器上根据路由的负载重定向)可以把用户的访问均匀地分散在多个 Web 服务器上。这样可以减少 Web 服务器的请求负载。因为 http 的请求都是短作业,所以,可以通过很简单的负载均衡器来完成这一功能。最好是有 CDN 网络让用户连接与其最近的服务器(CDN 通常伴随着分布式存储)。(关于负载均衡更为详细的说明见“后端的负载均衡”)

二、减少前端链接数

我看了一下 12306.cn,打开主页需要建 60 多个 HTTP 连接,车票预订页面则有 70 多个 HTTP 请求,现在的浏览器都是并发请求的。所以,只要有 100 万个用户,就会有 6000 万个链接,太多了。一个登录查询页面就好了。把 js 打成一个文件,把 css 也打成一个文件,把图标也打成一个文件,用 css 分块展示。把链接数减到最低。

三、减少网页大小增加带宽

这个世界不是哪个公司都敢做图片服务的,因为图片太耗带宽了。现在宽带时代很难有人能体会到当拨号时代做个图页都不敢用图片的情形(现在在手机端浏览也是这个情形)。我查看了一下 12306 首页的需要下载的总文件大小大约在 900KB 左右,如果你访问过了,浏览器会帮你缓存很多,只需下载 10K 左右的文件。但是我们可以想像一个极端一点的案例,1百万用户同时访问,且都是第一次访问,每人下载量需要 1M,如果需要在 120 秒内返回,那么就需要,1M * 1M /120 * 8 = 66Gbps 的带宽。很惊人吧。所以,我估计在当天,12306的阻塞基本上应该是网络带宽,所以,你可能看到的是没有响应。后面随着浏览器的缓存帮助 12306 减少很多带宽占用,于是负载一下就到了后端,后端的数据处理瓶颈一下就出来。于是你会看到很多 http 500 之类的错误。这说明服务器垮了。

四、前端页面静态化

静态化一些不觉变的页面和数据,并 gzip 一下。还有一个并态的方法是把这些静态页面放在/dev/shm 下,这个目录就是内存,直接从内存中把文件读出来返回,这样可以减少昂贵的磁盘I/O。

五、优化查询

很多人查询都是在查一样的,完全可以用反向代理合并这些并发的相同的查询。这样的技术主要用查询结果缓存来实现,第一次查询走数据库获得数据,并把数据放到缓存,后面的查询统统直接访问高速缓存。为每个查询做 Hash,使用 NoSQL 的技术可以完成这个优化。(这个技术也可以用做静态页面)

对于火车票量的查询,个人觉得不要显示数字,就显示一个“有”或“无”就好了,这样可以大大简化系统复杂度,并提升性能。

六、缓存的问题

缓存可以用来缓存动态页面,也可以用来缓存查询的数据。缓存通常有那么几个问题:

1)缓存的更新。也叫缓存和数据库的同步。有这么几种方法,一是缓存 time out,让缓存失效,重查,二是,由后端通知更新,一量后端发生变化,通知前端更新。前者实现起来比较简单,但实时性不高,后者实现起来比较复杂 ,但实时性高。

2)缓存的换页。内存可能不够,所以,需要把一些不活跃的数据换出内存,这个和操作系统的内存换页和交换内存很相似。FIFO、LRU、LFU 都是比较经典的换页算法。相关内容参看?Wikipeida 的缓存算法。

3)缓存的重建和持久化。缓存在内存,系统总要维护,所以,缓存就会丢失,如果缓存没了,就需要重建,如果数据量很大,缓存重建的过程会很慢,这会影响生产环境,所以,缓存的持久化也是需要考虑的。

诸多强大的 NoSQL 都很好支持了上述三大缓存的问题。

后端性能优化技术

前面讨论了前端性能的优化技术,于是前端可能就不是瓶颈问题了。那么性能问题就会到后端数据上来了。下面说几个后端常见的性能优化技术。

一、数据冗余

关于数据冗余,也就是说,把我们的数据库的数据冗余处理,也就是减少表连接这样的开销比较大的操作,但这样会牺牲数据的一致性。风险比较大。很多人把 NoSQL 用做数据,快是快了,因为数据冗余了,但这对数据一致性有大的风险。这需要根据不同的业务进行分析和处理。(注意:用关系型数据库很容易移植到 NoSQL 上,但是反过来从 NoSQL 到关系型就难了)

二、数据镜像

几乎所有主流的数据库都支持镜像,也就是 replication。数据库的镜像带来的好处就是可以做负载均衡。把一台数据库的负载均分到多台上,同时又保证了数据一致性(Oracle 的 SCN)。最重要的是,这样还可以有高可用性,一台废了,还有另一台在服务。

数据镜像的数据一致性可能是个问题,所以我们要吧在单条数据上进行数据分区,也就是说,把一个畅销商品的库存均分到不同的服务器上,如,一个畅销商品有 1 万的库存,我们可以设置 10 台服务器,每台服务器上有 100 个库存,这就好像 B2C 的仓库一样。

三、数据分区

数据镜像不能解决的一个问题就是数据表里的记录太多,导致数据库操作太慢。所以,把数据分区。数据分区有很多种做法,一般来说有下面这几种:

1)把数据把某种逻辑来分类。比如火车票的订票系统可以按各铁路局来分,可按各种车型分,可以按始发站分,可以按目的地分……,反正就是把一张表拆成多张有一样的字段但是不同种类的表,这样,这些表就可以存在不同的机器上以达到分担负载的目的。

2)把数据按字段分,也就是坚着分表。比如把一些不经常改的数据放在一个表里,经常改的数据放在另一个表里。把一张表变成 1 对 1 的关系,这样,你可以减少表的字段个数,同样可以提升一定的性能。另外,字段多会造成一条记录的存储会被放到不同的页表里,这对于读写性能都有问题。

3)平均分表。因为第一种方法是并不一定平均分均,可能某个种类的数据还是很多。所以,也有采用平均分配的方式,通过主键 ID 的范围来分表。

4)同一数据分区。这个在上面数据镜像提过。也就是把同一商品的库存值分到不同的服务器上,比如有 10000 个库存,可以分到 10 台服务器上,一台上有 1000 个库存。然后负载均衡。

这三种分区都有好有坏。最常用的还是第一种。数据一量分区,你就需要有一个或是多个调度来让你的前端程序知道去哪里找数据。把火车票的数据分区,并放在各个省市,会对 12306 这个系统有非常有意义的质的性能的提高

四、后端系统负载均衡

前面说了数据分区,数据分区可以在一定程度上减轻负载,但是无法减轻热销商品的负载,对于火车票来说,可以认为是大城市的某些主干线上的车票。这就需要使用数据镜像来减轻负载。使用数据镜像,你必然要使用负载均衡,在后端,我们可能很难使用像路由器上的负载均衡器,因为那是均衡流量的,因为流量并不代表服务器的繁忙程序。因此,我们需要一个任务分配系统,其还能监控各个服务器的负载情况。

任务分配服务器有一些难点:

  • 负载情况比较复杂。什么叫忙?是 CPU 高?还是磁盘I/O高?还是内存使用高?还是并发高?你可能需要全部都要考虑。这些信息要发送给那个任务分配器上,由任务分配器挑选一台负载最轻的服务器来处理。
  • 任务分配服务器上需要对任务队列,不能丢任务啊,所以还需要持久化。并且可以以批量的方式把任务分配给计算服务器。
  • 任务分配服务器死了怎么办?这里需要一些如 Live-Standby 或是 failover 等高可用性的技术。我们还需要注意那些持久化了的任务的队列如果转移到别的服务器上的问题。
我看到有很多系统都用静态的方式来分配,有的用 hash,有的就简单地轮流分析。这些都不够好,一个是不能完美地负载均衡,另一个静态的方法的致命缺陷是,如果有一台计算服务器死机了,或是我们需要加入新的服务器,对于我们的分配器来说,都需要知道。

还有一种方法是使用抢占式的方式进行负载均衡,由下游的计算服务器去任务服务器上拿任务。让这些计算服务器自己决定自己是否要任务。这样的好处是可以简化系统的复杂度,而且还可以任意实时地减少或增加计算服务器。但是唯一不好的就是,如果有一些任务只能在某种服务器上处理,这可能会引入一些复杂度。不过总体来说,这种方法可能是比较好的负载均衡。

五、异步、 throttle 和批量处理

异步、throttle(节流阀) 和批量处理都需要对并发请求数做队列处理的。

  • 异步在业务上一般来说就是收集请求,然后延时处理。在技术上就是可以把各个处理程序做成并行的,也就可以水平扩展了。但是异步的技术问题大概有这些,a)被调用方的结果返回,会涉及进程线程间通信的问题。b)如果程序需要回滚,回滚会有点复杂。c)异步通常都会伴随多线程多进程,并发的控制也相对麻烦一些。d)很多异步系统都用消息机制,消息的丢失和乱序也会是比较复杂的问题。
  • throttle 技术其实并不提升性能,这个技术主要是防止系统被超过自己不能处理的流量给搞垮了,这其实是个保护机制。使用 throttle 技术一般来说是对于一些自己无法控制的系统,比如,和你网站对接的银行系统。
  • 批量处理的技术,是把一堆基本相同的请求批量处理。比如,大家同时购买同一个商品,没有必要你买一个我就写一次数据库,完全可以收集到一定数量的请求,一次操作。这个技术可以用作很多方面。比如节省网络带宽,我们都知道网络上的 MTU(最大传输单元),以态网是 1500 字节,光纤可以达到 4000 多个字节,如果你的一个网络包没有放满这个 MTU,那就是在浪费网络带宽,因为网卡的驱动程序只有一块一块地读效率才会高。因此,网络发包时,我们需要收集到足够多的信息后再做网络I/O,这也是一种批量处理的方式。批量处理的敌人是流量低,所以,批量处理的系统一般都会设置上两个阀值,一个是作业量,另一个是 timeout,只要有一个条件满足,就会开始提交处理。
所以,只要是异步,一般都会有 throttle 机制,一般都会有队列来排队,有队列,就会有持久化,而系统一般都会使用批量的方式来处理

云风同学设计的“排队系统”?就是这个技术。这和电子商务的订单系统很相似,就是说,我的系统收到了你的购票下单请求,但是我还没有真正处理,我的系统会跟据我自己的处理能力来 throttle 住这些大量的请求,并一点一点地处理。一旦处理完成,我就可以发邮件或短信告诉用户你来可以真正购票了。

在这里,我想通过业务和用户需求方面讨论一下云风同学的这个排队系统,因为其从技术上看似解决了这个问题,但是从业务和用户需求上来说可能还是有一些值得我们去深入思考的地方:

1)队列的 DoS 攻击。首先,我们思考一下,这个队是个单纯地排队的吗?这样做还不够好,因为这样我们不能杜绝黄牛,而且单纯的 ticket_id 很容易发生 DoS 攻击,比如,我发起N个 ticket_id,进入购票流程后,我不买,我就耗你半个小时,很容易我就可以让想买票的人几天都买不到票。有人说,用户应该要用身份证来排队, 这样在购买里就必需要用这个身份证来买,但这也还不能杜绝黄牛排队或是号贩子。因为他们可以注册N个帐号来排队,但就是不买。黄牛这些人这个时候只需要干一个事,把网站搞得正常不能访问,让用户只能通过他们来买。

2)对列的一致性?对这个队列的操作是不是需要锁?只要有锁,性能一定上不去。试想,100万个人同时要求你来分配位置号,这个队列将会成为性能瓶颈。你一定没有数据库实现得性能好,所以,可能比现在还差

3)队列的等待时间。购票时间半小时够不够?多不多?要是那时用户正好不能上网呢?如果时间短了,用户也会抱怨,如果时间长了,后面在排队的那些人也会抱怨。这个方法可能在实际操作上会有很多问题。另外,半个小时太长了,这完全不现实,我们用 15 分钟来举例:有 1 千万用户,每一个时刻只能放进去 1 万个,这 1 万个用户需要 15 分钟完成所有操作,那么,这 1 千万用户全部处理完,需要 1000*15m = 250 小时,10天半,火车早开了。(我并乱说,根据铁道部专家的说明:这几天,平均一天下单 100 万,所以,处理 1000 万的用户需要十天。这个计算可能有点简单了,我只是想说,在这样低负载的系统下用排队可能都不能解决问题

4)队列的分分式。这个排队系统只有一个队列好吗?还不足够好。因为,如果你放进去的可以购票的人如果在买同一个车次的同样的类型的票(比如某动车卧铺),还是等于在抢票,也就是说系统的负载还是会有可能集中到其中某台服务器上。因此,最好的方法是根据用户的需求——提供出发地和目的地,来对用户进行排队。而这样一来,队列也就可以是多个,只要是多个队列,就可以水平扩展了。

我觉得完全可以向网上购物学习。在排队(下单)的时候,收集好用户的信息和想要买的票,并允许用户设置购票的优先级,比如,A车次卧铺买不到就买 B 车次的卧铺,如果还买不到就买硬座等等,然后用户把所需的钱先充值好,接下来就是系统完全自动地异步处理订单。成功不成功都发短信或邮件通知用户。这样,系统不仅可以省去那半个小时的用户交互时间,自动化加快处理,还可以合并相同购票请求的人,进行批处理(减少数据库的操作次数)。这种方法最妙的事是可以知道这些排队用户的需求,不但可以优化用户的队列,把用户分布到不同的队列,还可以像亚马逊的心愿单一样,让铁道部做车次统筹安排和调整(最后,排队系统(下单系统)还是要保存在数据库里的或做持久化,不能只放在内存中,不然机器一 down,就等着被骂吧)。

【李暘的回答(7票)】:

12306号称砸了几千万去做网站,但是从接口关联性、界面的人性化两个大方向上看,完全失败。接口关联性指的是12306和各个付费确认网站之间的连接,而界面人性化这个就不说了。几千万做一个网站,连美工都抠,还有什么好说的。

最要命的就是访问量。开站第一天因为大量用户拥堵而爆掉(这里先不考虑是否有黄牛用恶意刷票软件进行类似重复访问式的攻击——黄牛党在苹果官网抢购iPhone 4用的就是这种类型的软件),明显是没有做过访问压力测试。请来的技术员也好、程序员也罢,竟然幼稚到完全不从春运角度去考虑“极限访问”状态下的正常运作,这不是一个正常的运营思维,而是彻头彻尾的lie。

【w浩森的回答(4票)】:

感觉上来说很挫,因为又是吞钱,又是错发票,又是登不上的情况司空见惯

不过回头想想确实也不能一块砖拍死他

毕竟这业务量发生的比较夸张,春节期间日运送流量都以千万人次记,而且铁路订票不同于其他的一般网购,内部座位、车次、预留、优惠类型、座位类型、区段限制、临客添加、改签、预留给电话订票和窗口订票的票额等等导致一系列的复杂逻辑、数据结构等等,确实,仔细想想的确不容易。

我的观点就是,批评他没做好这点没的说。但是那些跟风附势,说风凉话的劣根民众我们不必理会。起码作为一个人来说,你这点不对。

【赫然的回答(4票)】:

12306使用上还是方便了很多人买票。从这一点上并不差哪儿。

批评铁道部的原因,

一方面是钱花了很多,这个网站做的不理想,用户体验不好;

另外时间上早已可以投付使用,偏偏赶在春运才投放,让人浮想联翩;

至于扣钱没出票、买的时候是座位出来是无座这类我觉得总有一定几率遇上,甭管是什么网站接口银行都会这些问题,倒是不必纠结。

【梁卓的回答(3票)】:

12306.cn这事儿上我看到的是进步。一个好的互联网产品一定是运营出来的,12306开发完毕并没有经历过高并发真实数据的模拟,一个没有实际运营的产品又恰在春运高峰高点击量的情况下推出肯定有不少问题。对于急于上线决策者来说无非是想方便大伙购票,出发点是好的。有不少网友拿腾讯和淘宝跟12306比,要知道这些互联网的公司都运营多少年了。而且用户的放量也是逐步的。还有一些大公司的技术大牛也在不断的批12306,其实仔细想想订票业务逻辑还是很复杂的,现在公司里的大牛也无非是某一方面的专家,离开公司体系你也许什么都不是。做技术的不要飘飘然。媒体人更不应该煽风点火,一味指责。

【王明学的回答(1票)】:

网站整体上体验还是不错,但是由于春运用户访问量过大导致出现很多严重的问题,

春运时候登录帐号都需要登录N多次,甚至有可能半天都登不上去

登录上去以后付款也有可能不成功.......等等很多问题!所以会遭到很多人的批评!

【阿达的回答(1票)】:

如果能够顺利登陆,买票的效率还是很高的,我最快7-8分钟就买到了。但用户太多无法登陆时, 他只会简单的提示你用户过多?,你就要抓狂了。。。

【胡昌利的回答(1票)】:

自己觉得,网站挺好的,就是没有售票功能!

【简单的回答(1票)】:

一个普通的购物网设计,不能承受大负载并发连接。如果真的象楼上说的扣了钱没出票,那就是连事务处理都没有做。

【位毛的回答(0票)】:

12306的注册邮箱是可以更改的,多么好的用户体验啊。

当注册邮箱错误时别慌张,你可以更改注册邮箱,然后再购票。

完全颠覆了注册用户邮箱不能更改的铁律,多么人性化。

【乔巴瑞的回答(0票)】:

作为用户,我只要能订到票,省得要到火车站去买票其实就ok了,我不太在乎其他方面的服务。到了购票高峰期就容易崩溃的网站,自然不够好。当然,如果它开放售票,我也能从其他网站、企业购买火车票的话,对我在其他地方的会员积分什么的更有好处,这个当然就更好了。

大家的吐槽主要集中在,从技术人员角度看,这个网站实现得不够好,恨铁不成钢;以及这么多钱办这么点事,痛心疾首;铁道部近些年丑闻太多,墙倒众人推。

【新小乡的回答(0票)】:

实话说,今年春运的确改进很多了。至少不会登陆不上提交失败了。去年我写过文章简单分析12306,整体也是持肯定态度。再接再厉。

【BreeZe清风的回答(0票)】:

显然太差了,这个网站最大的问题是没有搞清楚用户要的是什么。这个是政府网站色彩浓厚的网站。

阅读完本文还推荐您阅读: 双 11 卖的东西真的是一年中最

转载请保留本文链接:http://www.vbgudu.com/html/20170112/118695.html

免责声明:文章由网友投稿投稿,不代表本站的观点和立场!如有问题,请与本站联系。
本周看点
  • 进击的巨人第二季在哪看(b站)?进击的巨人2 进击的巨人第二季在哪看(b站)?进击的巨人2

     《进击的巨人》第二季的播出不出意料引来了很多人的关注,有不少喜欢这部动漫的人对于进击的巨人2很是期待,但是却不知道进击的巨人第二季在哪看?下面十万个为什么网小编将为你解答进击的巨人第二季在哪看(b站)?进击的巨人2有哪些疑点? ...

  • 朴槿惠崔顺实什么关系,崔顺实是谁,崔顺实 朴槿惠崔顺实什么关系,崔顺实是谁,崔顺实

     朴槿惠崔顺实什么关系 朴槿惠和崔顺实是多年的闺蜜。 60岁的崔顺实被韩国媒体称为与64岁的朴槿惠亲如姐妹。朴槿惠在20岁出头失去母亲之后认识比自己小四岁的崔顺实,迄今已逾40年。 对于父母早逝、与亲兄妹关系疏远且始终没有结婚的朴槿...

  • 泰国王储资料简介 泰国王储丑闻有哪些? 泰国王储资料简介 泰国王储丑闻有哪些?

     综合外媒报道,泰国国王普密蓬10月13日因病逝世,王储玛哈哇集拉隆功将继位为国王。这位王储实在是差强人意。因为他的行事作风无法代表一个国家。下面为什么网带你看看泰国王储资料简介 泰国王储丑闻有哪些? 泰国王储资料简介 玛哈哇集拉...

  • 神奇百货CEO王凯歆破产了吗?投资人为什么 神奇百货CEO王凯歆破产了吗?投资人为什么

     年纪轻轻,坐拥千万,管理一个巨大的公司。这是每一个人的梦想。但是17岁神奇百货总裁王凯歆做到了。但是很显然,这名95后的创业并不是太好走,最近17岁少女总裁王凯歆最近的日子不好过。神奇百货被外界传越来越不靠谱。下面为什么网带你...

  • 韩国总统是如何推选的?任期多久?朴槿惠会 韩国总统是如何推选的?任期多久?朴槿惠会

     韩国总统任期多久? 以前,韩国的总统是可以无限连任的,但是一个人长时间执政,会出现很多错误的决策,所以1960年修宪:李承晚下台后,过渡政府对宪法进行广泛修改,无条件规定公民权利;由总统制改为责任内阁制,总统由国会议员选举,任...