画像出典:ゲッティイメージズ
スカーレット・ヨハンソンのAI論争はシリコンバレーの古き悪しき時代を彷彿とさせる
記事情報
- 著者、ゾーイ・クラインマン
- 役割、テクノロジー編集者
- ツイッター、@zsk
-
1時間前
「早く動いて物事を壊せ」は、若き日のマーク・ザッカーバーグが作り出してから約20年経った今でも、テクノロジー業界に根強く残っているモットーだ。
これらの 5 つの言葉は、冷酷な野心と息を呑むような傲慢さの組み合わせ、結果を恐れることのない利益主導のイノベーションという、最悪の状態のシリコンバレーを象徴するようになりました。
今週、私はその言葉を思い出しました 俳優のスカーレット・ヨハンソンがOpenAIと衝突した。 ヨハンソン氏は、自身と代理人の双方が、ChatGPTの新製品の声を担当することを断ったと主張している。しかし、発表された新製品の音声は、結局、ヨハンソン氏そっくりだった。OpenAIは、意図的な模倣だったことを否定している。
これはまさにクリエイティブ業界が懸念していること、つまり人工知能によって模倣され、最終的には置き換えられてしまうことを典型的に表している。
先週、世界最大の音楽出版社であるソニーミュージックは、 書きました Google、Microsoft、OpenAIに対し、自社のアーティストの楽曲がAIシステムの開発に使用されたかどうかを知りたいと要求し、許可は得ていないと述べた。
これらすべてには、昔のマッチョなシリコンバレーの巨人たちのエコーがあります。 非公式の事業計画として許可ではなく許しを求める。
しかし、2024年のテクノロジー企業は、そうした評判から距離を置くことに非常に熱心です。
OpenAI はそのような型で作られたわけではありません。もともとは、余剰利益を事業に再投資する非営利団体として設立されました。
2019年に営利志向部門を設立した際、営利部門は非営利部門が主導し、投資家が得られる収益には上限が課されるだろうと述べた。
この変化に誰もが満足していたわけではない。これが、元共同創業者のイーロン・マスク氏が退任を決意した主な理由だと言われている。
OpenAI CEOのサム・アルトマン氏が昨年末に自身の取締役会から突然解任されたとき、理論の1つは彼が本来の使命からさらに遠ざかりたいというものだった。 確かなことは分かりませんでした。
しかし、OpenAI がより利益を重視するようになったとしても、依然としてその責任に向き合わなければなりません。
政策立案の世界では、災害が起こる前にOpenAIのような企業を協調させるためには明確な境界線が必要であるということで、ほぼ全員が同意している。
これまでのところ、AI大手各社はおおむね紙の上で協力している。6か月前に開催された世界初のAI安全サミットでは、多くのIT企業の幹部が、AI技術のメリットを最大化し、リスクを最小化する責任ある安全な製品を開発するという自主的な誓約書に署名した。
当初、イベント主催者によって特定されたこれらのリスクは、まさに悪夢のようなものでした。 当時、AI ツールが人々を差別したり、AI ツールに仕事を置き換えたりすることによって人々に引き起こされる、より現実的な脅威について尋ねたところ、この集会は絶対的な最悪のシナリオのみを議論することに専念していると強く言われました。 – これは、ターミネーター、ドゥームズデイ、AI が暴れ、人類を破壊する領域でした。
6ヵ月後、サミットが再開されたとき、会議のタイトルから「安全」という言葉は完全に削除されていました。
先週、30人の独立した専門家グループによる英国政府の報告書草案は、 「まだ証拠はない」 AIが生物兵器を生成したり、高度なサイバー攻撃を実行したりする可能性がある。人間がAIの制御を失う可能性は「非常に議論の余地がある」と報告書は述べた。
この分野の一部の人々は、AIツールのより差し迫った脅威は、AIが仕事を奪ったり、肌の色を認識できなくなったりすることだと、かなり前から主張してきた。AI倫理の専門家であるルマン・チョウドリー博士は、これらが「本当の問題」だと述べている。
AI安全性協会は、ここ数日発売された新しいAI製品の安全性テストを行ったかどうかについては明らかにしなかった。 特に OpenAI の GPT-4o と Google の Project Astra は、どちらも私がこれまで見た中で最も強力で高度な一般公開 AI システムの 1 つです。 その一方で、マイクロソフトは AI ハードウェアを搭載した新しいラップトップを発表しました。これは、AI ツールがデバイスに物理的に組み込まれる始まりです。
この独立報告書はまた、AI ツールがなぜそのような出力を生成するのかを正確に理解する信頼できる方法は現時点では (開発者間であっても) 存在しないこと、および評価者が意図的に AI ツールを取得しようとするレッド チーミングの安全性テスト慣行が確立されているとも述べています。不正行為を行う場合、ベストプラクティスのガイドラインはありません。
今週ソウルで英国と韓国が共催するフォローアップサミットで、企業は一定の安全基準を満たさない製品を棚上げすることを約束したが、これらは次回の会合まで設定されないことになる。 2025年。
これらすべての約束や公約が十分に達成されていないのではないかと懸念する人もいます。
「自主協定は、本質的には企業が自らの課題を採点する手段に過ぎません」と、独立研究機関エイダ・ラブレス研究所の副所長アンドリュー・ストレート氏は言う。「これは、これらの技術の責任ある開発を奨励するために必要な、法的拘束力があり強制力のある規則に代わるものではありません。」
OpenAIは、自社が取り組んでいるとする独自の10項目の安全プロセスを公開したばかりだが、安全を重視したシニアエンジニアの1人が最近辞任し、彼の部門が社内で「逆風に向かって航行」していたとXに書いた。
「過去数年間、安全文化とプロセスは、派手な製品に後回しにされてきた」とJan Leike氏は投稿した。
もちろん、OpenAI には安全性とセキュリティに引き続き注力している他のチームもあります。
しかし、現時点では、それらが実際に何をしているのかを公式に独立して監視する機関はありません。
英国を代表するコンピューター科学者の一人であるデイム・ウェンディ・ホール教授は、「これらの企業が公約を遵守しているという保証はありません」と語る。
「製薬会社やリスクの高い他の分野の場合と同じように、彼らの発言に責任を負わせるにはどうしたらいいのでしょうか?」
また、いざというときに自主協定がもう少し強制力を持つようになると、これらの強力なテクノロジーリーダーたちが従順ではなくなることも分かるかもしれない。
英国政府が大手ハイテク企業が国家安全保障を侵害する可能性がある場合、セキュリティ機能の展開を一時停止する権限が欲しいと述べたとき、アップルは英国からサービスを削除すると脅迫した。 「前例のない行き過ぎ」 議員らによる。
この法案は可決され、今のところ Apple はまだ存在している。
欧州連合のAI法が先日署名され、法律として成立した。これは、これまでにない最も厳しい法律である。また、遵守しない企業には厳しい罰則が科される。しかし、AI大手自身よりもAIユーザーにとって手間がかかると、ガートナーのアナリスト副社長、ネイダー・ヘネイン氏は言う。
「大多数は [of AI developers] この法律が彼らに与える影響を過大評価しているのです」と彼は言う。
AIツールを使用する企業は、それらを分類し、リスクスコアを付ける必要があり、AIを提供するAI企業は、それができるように十分な情報を提供しなければならないと彼は説明する。
しかし、これは彼らが責任を免れることを意味するものではありません。
「時間をかけて法的規制に向けて進む必要があるが、急ぐことはできない」とホール教授は言う。 「誰もが同意するグローバルガバナンスの原則を設定するのは本当に難しいことです。」
「また、我々が保護しているのは西側諸国や中国だけではなく、真に世界的なものであることを確認する必要もあります。」
AIソウルサミットに参加した人たちは、有益だと感じたと述べています。 ブレッチリーほど「派手さはなかった」が、議論は多かった、と出席者の一人は語った。 興味深いことに、このイベントの最終声明には27か国が署名しているが、中国には直接代表者がいるにもかかわらず、署名していない。
これまでと同様に、最も重要な問題は、規制と政策の進展がイノベーションの進展よりもはるかに遅いことです。
ホール教授は、政府レベルでは「星が一列に並んでいる」と信じている。問題は、テクノロジー大手が彼らを待つように説得できるかどうかだ。
BBC インデプス は、トップジャーナリストによる最高の分析と専門知識を提供するウェブサイトとアプリの新しい拠点です。 特徴的な新しいブランドの下で、思い込みに疑問を投げかける新鮮な視点と、複雑な世界を理解するのに役立つ最大の問題に関する詳細なレポートをお届けします。 また、BBC Sounds や iPlayer からの示唆に富むコンテンツも紹介します。 私たちは小さなことから始めていますが、大きなことを考えています。皆さんのご意見を知りたいです。下のボタンをクリックしてフィードバックをお送りください。
連絡する
InDepth は、BBC ニュース全体からの最高の分析の新しい拠点です。 あなたが考えていることを私に伝えてください。
1716424451
#スカーレットヨハンソンのAI論争はシリコンバレーの古き悪しき時代を彷彿とさせる
2024-05-22 23:09:11