OpenAI CEO承认:AI可能毁灭人类!上千名科技专家签署公开信,呼吁暂停巨型AI实验!
近日,OpenAI创始人兼CEO Sam Altman在接受科技博客主Lex Fridman的采访时表态,他不会回避“人工智能可能杀死全人类”的说法。
在YouTube视频中,Lex Fridman在访谈中提到了人工智能研究者、LessWrong研究所创始人Eliezer Yudkowsky的观点。此前,Eliezer Yudkowsky指出“人工智能可能杀死所有人”,并认为,当人工智能发展为超级智能时,几乎无法与人类站在统一战线上。
对此,Sam Altman回应表示,认为有这种可能性,并且承认这一点很重要,因为如果不谈论它、不把它视为潜在的事实,那么就不会投入足够的努力去解决这个问题。
Sam Altman还称:“从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。AI确实可能杀死人类”。他说道,认为必须开发新的技术来解决这个问题,他所知道的解决这类问题的唯一方法就是不断迭代,尽早学习。
而除了Sam Altman,人工智能教父Geoffrey Hinton、Bill Gates、纽约大学教授Gary Marcus最近也纷纷发出警示:AI消灭人类,真的不是空谈。
另外,日前一个名叫生命未来研究所的网站发布了一篇名为《暂停大型人工智能研究》的公开联名信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
据悉,该公开信已经收到了1126个签名,其中不乏像Elon Musk和Apple联合创始人Steve Wozniak这样的名人。
公开信中提出,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。高级AI可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。
不幸的是,这种级别的规划和管理并没有发生,只有当人们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的规模而增加。
简单来说,就是得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。在科技界被广泛认可的AsilomarAI原则提到,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。
Sponsored by Egroup88