在机器人和人工智能技术发展迅速的背景下,业界领袖呼吁加强监管,以避免出现“不稳定效应”。他们警告,有关技术可能是一个“潘多拉的盒子”。
人工智能(AI)和机器人技术产业的一百多名领导人物周一联名签署一封公开信,提醒公众,战争领域的“第三次革命”正在悄然发生。
所谓“自主武器”(autonomous weapon)是联合国常规武器大会讨论的议题之一。原定于本周一举行的会议因故被推迟。
公开信称:“科技企业开发的人工智能和机器人技术,有可能被改造用于制造自主武器,我们尤其感到有责任提出警告。”
公开信的签署人包括SpaceX的CEO埃隆•马斯克(Elon Musk)以及谷歌DeepMind创始人之一、现负责DeepMind应用人工智能(applied AI)的穆斯塔法•苏莱曼(Mustafa Suleyman)。
信中呼吁联合国加大努力,寻找防止自主武器军备竞赛的途径,以保护无辜平民不受到此类武器滥用的伤害,避免有关技术引发的“不稳定效应”。
潘多拉的盒子
这并不是业界领袖第一次就所谓“致命性自主武器系统”(Lethal Autonomous Weapon Systems)的灾难性后果提出警告。2015年,一千多名知名科学家就曾对这种“杀手机器人”提出警告。
著名物理学家霍金(Stephen Hawking)将人工智能称为人类犯下的“最糟糕的错误”,而马斯克则称之为目前可以想象的对人类生存的最大威胁。
“它可能成为恐怖主义的武器、被独裁者和恐怖分子掌握在手中,加害无辜民众,它也可能被恶意操控,做出违反人们初衷的举动。”公开信写道:“现在我们还有时间采取行动,一旦潘多拉的盒子被打开,就很难再关上。”
人工智能(AI)和机器人技术产业的一百多名领导人物周一联名签署一封公开信,提醒公众,战争领域的“第三次革命”正在悄然发生。
所谓“自主武器”(autonomous weapon)是联合国常规武器大会讨论的议题之一。原定于本周一举行的会议因故被推迟。
公开信称:“科技企业开发的人工智能和机器人技术,有可能被改造用于制造自主武器,我们尤其感到有责任提出警告。”
公开信的签署人包括SpaceX的CEO埃隆•马斯克(Elon Musk)以及谷歌DeepMind创始人之一、现负责DeepMind应用人工智能(applied AI)的穆斯塔法•苏莱曼(Mustafa Suleyman)。
信中呼吁联合国加大努力,寻找防止自主武器军备竞赛的途径,以保护无辜平民不受到此类武器滥用的伤害,避免有关技术引发的“不稳定效应”。
潘多拉的盒子
这并不是业界领袖第一次就所谓“致命性自主武器系统”(Lethal Autonomous Weapon Systems)的灾难性后果提出警告。2015年,一千多名知名科学家就曾对这种“杀手机器人”提出警告。
著名物理学家霍金(Stephen Hawking)将人工智能称为人类犯下的“最糟糕的错误”,而马斯克则称之为目前可以想象的对人类生存的最大威胁。
“它可能成为恐怖主义的武器、被独裁者和恐怖分子掌握在手中,加害无辜民众,它也可能被恶意操控,做出违反人们初衷的举动。”公开信写道:“现在我们还有时间采取行动,一旦潘多拉的盒子被打开,就很难再关上。”