我来了,我看见,我分享!
全球著名的安全机构FLI(Future of Life Institute:生命未来研究所)在今年3月份发布公开信,呼吁全球所有机构暂停训练AI服务,著名科学家斯蒂芬·霍金、商界大佬埃隆·马斯克、比尔·盖茨等,也对人工智能的发展表示担忧。近段时间以来,国内chatAI服务也相继暂停,同时互联网上种种声音表明,大家已经嗅到了科学技术发展给人类带来的危险信号。
Future of Life Institute(生命未来研究所)官网
许多科研团队已开始攻克“AGI(Artificial General Intelligence表现得与人类一样好或更好的通用人工智能)”,一旦人工智能系统超越人类,那么它很快就会将人类抛在后面,这是一个非常恐怖的超越。
人工智能很危险?可能跟科幻电影里的情节不太一样,像什么人工智被植入了情感,机器人还要跟人类谈恋爱……科学家认为这种技术的突破短期内还不能实现。在考虑人工智能的风险时,最有可能就是:
(一)人工智能的程序被写为做一些破坏、毁灭性的事情: 我们说技术的发展是中性的,并没有好坏之分,像我们研发的自主武器系统,它被掌握在政府手里能够保家卫国,摧毁来犯之敌,要是被恐怖分子利用,就成了杀人放火的掠夺侵犯工具。此外,如若人工智能被不加节制地运用在国防武器系统,由于各国军备竞赛,可能会无意中导致一场人工智能战争,那么这对世界和平来说是一场毁灭性的打击,甚至地球都有可能不复存在。这种风险会随着人工智能和自主水平的提高而增加。
(二)人工智能会“为达目的不择手段”:即使人工智能被编程为做一些有益的事情,它仍然可以开发一种破坏性的方法来实现这一目标。危险不是来自机器人本身,而是来自智能本身,它只需要互联网连接就可以对我们造成无法估量的伤害。
超级人工智能碾压人类文明不是不可能!以前看过的科幻电影好多都变成了现实,谁又能保证的了今天我们看到的科幻剧作不会在明日实现呢?无论未来怎样,只要我们的管理智慧能战胜技术发展的不确定性,给技术戴上“紧箍咒”,人类文明才会赢得未来。
资本是贪婪逐利的,如若不加监管会助推技术发展到万劫不复的境地
我们暂停技术研究不是阻碍发展,恰恰相反,我们先停下来制定好规则后,为的是能让技术在朝着人类可控的方向加速发展!。
相关文章
猜你喜欢
成员 网址收录40405 企业收录2984 印章生成242329 电子证书1086 电子名片62 自媒体69736