1733060920
2024-11-26 09:00:00
成長しています 求められていない強制を拒否する人々や組織の傾向 AI 彼らの生活の中で。 2023 年 12 月には、 ニューヨーク・タイムズはOpenAIとマイクロソフトを訴えた 著作権侵害のため。 2024年3月、3人の著者がカリフォルニア州で集団訴訟を起こした。 エヌビディア AIプラットフォームNeMoを著作権で保護された作品に基づいてトレーニングした疑い。 2か月後、Aリスト女優は スカーレット・ヨハンソンがOpenAIに法的書簡を送った その新しいChatGPTの声が自分の声に「不気味なほど似ている」ことに彼女は気づきました。
ここでテクノロジーは問題ではありません。パワーダイナミクスは次のとおりです。多くの場合、私たちの許可なしに、このテクノロジーが自分たちのデータに基づいて構築されていることを人々は理解しています。 AIに対する国民の信頼が低下しているのも不思議ではない。最近の研究によると、 ピュー・リサーチ 米国人の半数以上が AI について興奮よりも懸念を抱いていることを示しており、これは中南米、アフリカ、中東諸国の大多数の人々も同様の感情です。 世界リスク世論調査。
2025 年には、人々が AI の使用方法をさらに制御することを要求するようになるでしょう。それはどのように達成されるのでしょうか?一例は、軍から借用されサイバーセキュリティで使用されるレッドチーム化です。レッドチーム演習では、外部の専門家がシステムに「侵入」するか、システムを破壊するよう求められます。これは、防御がどこで問題を起こす可能性があるかをテストするものとして機能するため、防御を修正することができます。
レッド チーム化は、大手 AI 企業が自社のモデルの問題を見つけるために使用していますが、一般向けの実践としてはまだ普及していません。それは2025年に変わるだろう。
たとえば、法律事務所 DLA Piper は現在、弁護士とのレッドチームを活用して、AI システムが法的枠組みに準拠しているかどうかを直接テストしています。私の非営利団体、Humane Intelligence は、AI の差別や偏見をテストするために、非技術専門家、政府、市民社会団体とのレッドチーム演習を構築しています。 2023 年には、ホワイトハウスの支援を受けて 2,200 人規模のレッドチーム演習を実施しました。 2025 年、私たちのレッド チーム イベントは、一般の人々の実体験に基づいて、イスラム嫌悪に対する AI モデルと、女性に対するオンライン嫌がらせを可能にする AI モデルの能力を評価する予定です。
圧倒的に、私がこれらの演習のいずれかを主催するときに最もよく聞かれる質問は、問題の特定から問題を自分たちで解決するまでどのように進化できるかということです。言い換えれば、人々は修理する権利を望んでいます。
AI の修復権は次のようになります。ユーザーは AI で診断を実行し、異常があれば報告し、企業によっていつ修正されるかを確認することができます。倫理的ハッカーのようなサードパーティグループは、誰でもアクセスできる問題に対するパッチや修正を作成する可能性があります。または、独立した認定機関を雇って AI システムを評価し、カスタマイズすることもできます。
これは今日では抽象的なアイデアですが、将来的には修理する権利が現実になるための準備が整っています。現在の危険な権力関係を覆すには、ある程度の努力が必要です。私たちは、AI 企業がテストされていない新しい AI モデルを現実世界のシステムに導入するだけで、一般人が巻き添え被害となる世界を正常化するよう急速に迫られています。修復する権利により、すべての人が生活の中で AI をどのように使用するかをコントロールできるようになります。 2024 年は、世界が AI の普及と影響に目覚めた年でした。 2025 年は私たちが権利を要求する年です。
#人工知能を修復する新たな権利が必要
