近日多位顶级AI研究人员,包括AI工程师,CEO,也针对AI对人类构成的生存威胁发出了最新的警告,为了进一步减轻人工智能给人类带来的灭绝风险,应该和流行病以及核战争等不同的社会规模风险让AI成为全球优先事项,目前为止已经有超过了350名人工智能行业的专业人士一起签署了22字的紧急声明。
当地时间5月30号这一份只有简短的22个单词所组成的声明也正式发布在非盈利组织人工智能安全中心的官方网站中,该网站表示记者,政策制定者,包括公众以及人工智能专家在近期也不断的去讨论人工智能给人类带来的重要以及紧迫风险。这些业内人士希望有更多的人去认真对待科技领域中最先进的人工智能技术给人类以及全球所带来的风险化。