OpenAI發(fā)布安全指南:董事會有權(quán)阻止CEO發(fā)布新模式
12月19日,據(jù)官方公告,OpenAI在官網(wǎng)發(fā)布了一份名為“準備框架”的文章(Preparedness Framework)“安全指南規(guī)定了“跟蹤、評估、預測和防止日益強大的模型帶來的毀滅性風險的過程”。 OpenAI表示,正在選擇“準備框架”的測試版本,“準備框架”(Preparedness)“團隊”將致力于確保前沿人工智能模型的安全。“準備團隊”將繼續(xù)對人工智能系統(tǒng)進行評估,以了解其在四個不同風險類別中的表現(xiàn)。Open人工智能正在監(jiān)控所謂的“毀滅性”風險,它被定義為“所有可能造成數(shù)千億美元財產(chǎn)損失或許多人嚴重受傷甚至死亡的風險”。 根據(jù)安全指南,領(lǐng)導可以根據(jù)這些報告決定是否發(fā)布新的人工智能模型,但股東有權(quán)推翻其決定。
版權(quán)聲明:本站所有文章皆是來自互聯(lián)網(wǎng),如內(nèi)容侵權(quán)可以聯(lián)系我們刪除!