BT财经

境内金融信息服务备案编号:

【京金信备(2021)5号】

2024年11月29日

霍金:比2012更可怕的,是人工智能?

任何新的科学技术从理论走到实际的应用,都有其两面性,就拿核技术来说,当时的历史条件下,核技术被用来制造核武器,是受到很多核技术专家的反对的,例如当时首席科学家奥本海默就在日记里记录到:人类打开了潘多拉的魔盒.从正面的意义上看,两枚原子弹在日本本土爆炸,震撼了日本人,加速了战争的进程,结束了旷日持久的第二次世界大战,拯救了数百万的军人,让他们的生命得到了延续.但众所周知的是,后来核技术也导致了乌克兰切尔诺贝利核泄漏和日本的福岛核泄漏,致使大量的人死亡,让他们的家园变成了不毛之地.而这些就是跨时代科学技术带来的正反两面,它们造福人类,但人类也必须承受它带来的巨大风险.

 

 

随着科学技术的不断发展,我们又迎来了新的跨时代技术,这就是AI人工智能.人类正处于人工智能大爆发的前夜,对于这项技术,评价也是褒贬不一,认知相差很大. 认同人工智能的人,认为人类会因为这项技术而解放自己,它会极大地推动人类社会的发展,我们将实现大的飞跃,这是一种进化.但不认同的人,则认为这项技术非常的危险,其中就有已故的著名理论物理学家霍金,他认为:比2012更可怕的是人工智能.大家一定都看过这部电影,地球母亲一旦发怒,就可以轻易毁灭人类百万年的历史,杀死数以亿计的人类,这是自然的灾难.但人工智能则完全不同,人工智能是人类自己发明的,如果它失控,就可能统治人类,甚至是毁灭人类自己.在电影里面,电影大师卡梅隆已经描述了这个场景,其实这就是一种自我检讨,自我剖析.现在美国当红的商人和科学家,埃隆马斯克,也表达过同样的观点:认为人类的智能远远比不过人工智能的学习速度,一旦这种机器突破了自我学习的"奇点",它很可能出现自我意识,而那时就是人类文明终结的一刻.



未完......
请加入BT财经数据通会员查看全文!
加入BT财经数据通会员 >>




版权声明:本文版权归BT财经(微信号:BT财经)所有,财经时报为BT财经授权转载的唯一网站,未经BT财经允许,任何单位或个人不得转载、复制或以任何其他方式使用本文全部或部分,侵权必究。

领讯时代文化传媒 | Copyright ©️ 2024 财经时报 版权所有 京ICP备19043396号-7

京公网安备 11010602007380号 | 境内金融信息服务备案编号:京金信备(2021)5号

网信算备110106674807801230011号


声明:未经授权,不得复制、转载或以其他方式使用本网站的内容。BT财经尽最大努力确保数据准确,但不保证数据绝对正确。