Go to contents

オープンAIを去ったサツキバー氏、「安全なAI」新会社設立へ

オープンAIを去ったサツキバー氏、「安全なAI」新会社設立へ

Posted June. 21, 2024 08:37,   

Updated June. 21, 2024 08:37

한국어

「安全な超知能(Safe Superintelligence=SSI)を構築することは、私たちの時代の最も重要な技術的な問題だ」

オープンAIの共同創業者でチーフサイエンティストでもあったイリヤ・サツキバー氏(38)が、オープンAIを去って1ヵ月ぶりに新しい人工知能(AI)スタートアップを作ると発表した。サツキバー氏は昨年11月、オープンAIの最高経営責任者(CEO)のサム・アルトマン氏の解任波紋を起こした取締役会のメンバーの1人だ。

サツキバー氏は19日、X(旧ツイッター)に、「新しい会社を立ち上げよう」とし、SSI㈱の告知文を添付した。この文章は、「安全な超知性という一つの目標と製品で世界初のSSI研究所を始めた」と伝えた。オープンAIの元技術担当者であるダニエル・レヴィ氏とアップルの元AI責任者ダニエル・グロス氏も参加した。

サツキバー氏は、具体的にどのような製品を作るかについては明らかにしなかった。ただ、ブルームバーグ通信に、「私たちの安全は『原子力安全』のようなもの」とし、安全なAIのための制御システムを開発することを示唆した。サツキバー氏は、「安全な超知能が出るまで、他のことは何もしないだろう」とも述べた。

ユダヤ人で、ロシアで生まれたサツキバー氏は、5歳からイスラエルのエルサレムで育った。その後、カナダに移住し、AIディープラーニングの父とされるジェフリー・ヒントン・トロント大学教授の下で人間の脳を模倣したコンピューターを研究するニューラルネットワーク技術を専攻した。サツキバー氏は、「AIが人類に害を及ぼす可能性がある」と考えるヒントン教授の影響を受けたと言われている。

2013年からグーグルで働いていたサツキバー氏に注目したのは、テスラのCEOイーロン・マスク氏だ。マスク氏は、オープンAI創業当時、サツキバー氏を連れてきて、後に、「それは私がした最も大変な採用戦だったが、オープンAIが成功できる核心だった」と話した。

サツキバー氏は昨年7月、オープンAIでAIのリスクを研究する安全チーム「スーパーアラインメント」を結成した。当時、サツキバー氏は、「人間より優れた知能を持つAIが10年以内に誕生する可能性がある」とし、備えなければならないとした。しかし、このような傾向は、AI開発論者であるアルトマン氏との衝突につながった。結局、アルトマン氏解任が失敗に終わり、サツキバー氏は先月、オープンAIを退社した。


イ・ギウク記者 71wook@donga.com