目前,这一消息已经迅速登上推特等各社交网站热搜。
霍金生前一直致力于探索人类发展的终极问题,以及AI发展的原则。他认为人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。
对此他在2017年2月与Elon Musk联手推出了23条原则,告诫AI发展的底线。呼吁全世界的人工智能领域从业者在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。
让我们用他在生活大爆炸中的一个片段结尾吧。
愿您一路走好!
目前,这一消息已经迅速登上推特等各社交网站热搜。
霍金生前一直致力于探索人类发展的终极问题,以及AI发展的原则。他认为人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。
对此他在2017年2月与Elon Musk联手推出了23条原则,告诫AI发展的底线。呼吁全世界的人工智能领域从业者在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。
让我们用他在生活大爆炸中的一个片段结尾吧。
愿您一路走好!