1772951650
2026-03-07 19:00:00
バルセロナ私たちが偏ったアルゴリズムを備えた人工知能から出発していることは誰にとっても秘密ではありません。個人的な目的であれ、企業や団体での利用であれ、さらに憂慮すべきこととして、ネットワーク上でコンテンツを広めるために AI を規制なしで使用することの危険性は、実証され注目されています。民主主義的価値観と整合し、ジェンダーの視点を持つ倫理的なアルゴリズムを達成することは、特にヨーロッパで達成が試みられている目標です。この分野の女性専門家は、非常に急速に進歩し、制御するのが難しいと思われるテクノロジーに光を当てます。 ビッグテクノロジー、 女性が不足している。
「これまでAIを訓練してきたチームは、もともと偏見を持った白人男性だった。女性がいないということは、たとえば、ここには200万枚の写真があり、それらはすべて男性であるなどと誰も警鐘を鳴らさなかったということだ」と彼は言う。 カリーナ・ジベール UPC のインテリジェント データ サイエンスおよび人工知能 (IDEAI) の教授、およびバルセロナの情報学部の教授。ジバート氏は、偏った AI はプロセスに女性がいないことと、アルゴリズムを訓練するために同じく偏ったデータが使用されていることを組み合わせた「卑劣な不正行為」から生じていると説明しています。
アルゴリズムのバイアスに対して最も脆弱なのは誰でしょうか?そう、「テーブルに座っていない人たち」だと、世界中の AI テクノロジーと規制を専門とする弁護士、タチアナ カルダス レッティガー氏は言います。 「女性は、たとえ労働市場に参加しているとしても、会話に参加し、質問しなければなりません。私たちには重要な役割があります。」カルダスは国際法務分野で 20 年の経験があり、AI が倫理的に開発および使用される世界の構築を目指す市民団体、International WomanX in Business for Ethical AI の創設者兼 CEO です。
この解決策には、社会の文化的変化を促すだけでなく、アルゴリズムの規制やこのテクノロジーを訓練する人材の訓練も含まれます。フェミニストAIは作れるのか? 「もちろんできます。誰かがそれを作ったら、社会がそれを消費しなければならないということが起こります」とカリーナ・ジベールは言う。
通常のアルゴリズム: 重要な部分
欧州はその点で最も進んでいる AI規制: 2024 年に承認された EU AI 法は、基本的権利の尊重を確保するためにこのテクノロジーを包括的に規制する世界初の法律です。その統合はまだ完了していませんが (遅れており、2027 年 8 月に完了する予定です)、この法律は AI システムをリスクに応じて分類しています (完全に禁止されている、高リスク、限定的リスク、または最小限のリスク)。
「書籍を推奨するアプリケーションがある場合は、おそらくリスクはありませんが、医師にアドバイスを与えたり、診断を行うアプリケーションがある場合、これはリスクが高く、特定のセキュリティ要件と倫理的最低限度が満たされていることを確認するための検証プロセスを通過する必要があります」と、AI のコンピュータ エンジニアリングの専門家で UPC のインテリジェント データ サイエンスおよび人工知能の研究者であるキャロライン ケーニッヒ氏は説明します。
「現在、私たちは法律の展開という行き詰まりの瞬間にいます。完全に倫理的ではない合法的な AI がまだ存在する可能性があります」と、カタルーニャ公式コンピュータ エンジニアリング大学の学部長でもあるジベール氏は明言します。
企業が規制されていない AI を使用すると何が起こるでしょうか?たとえば、人を雇用する場合、アルゴリズムは偏ったデータを使用するため、差別する可能性があります。しかし、訓練されたテクノロジーがあれば状況は変わります。たとえば、イギリスでは、離婚した女性が脆弱な状態にあり、対処する経済的能力がないことが判明したため、いくつかの保険会社が離婚女性へのサービスの販売を中止した。以前は、銀行や保険会社は、経済的地位に関係なく、すべての顧客にクレジット カードや保険を販売していましたが、AI の規制により、それらを販売しないよう倫理的に義務付けられました。
ただし、規制がどの程度対応できるかという点も注目されています。テクノロジーの進歩が速すぎて最新の規制を適用するには、多大な時間のかかる労力が必要です。カルダス氏はこれを非常にうまくまとめています。「生成型 AI により、考慮すらされなかった損害が発生しています。誰がそれを分析しますか? 誰がそのリスクが高いか低いかを教えてくれますか? 規制当局や法律を制定する人がそれについて規制する時間はありません。」 「ChatGPTなどの生成AIは高リスクとはみなされないが、透明性要件と欧州著作権法に準拠する必要がある」と欧州議会は少し前に保証した。現在、チャットボットは危険なツールであることが証明されていますが、最初はそうではなく、特に若者や女性との対戦が見られるようになるまではそうではありませんでした。
実際のケース
「今では、おそらく 4 年前には注目していなかった事柄に注目しています。当初の主な目標は、可能な限り正確なモデルを開発することであり、それが差別的であるかどうかには注意を払っていませんでした。なぜなら、それは義務ではなかったからです。」キャロライン・ケーニッヒは研究に従事しており、欧州の AI 法によって高リスクとみなされている生物医学プロジェクトに取り組んでいます。
具体的には、研究者は、UPC による、個別化医療のための AI に基づく予測プラットフォームの開発を主導しています。 パーメプシー。サン・ジョアン・デ・デウ・ヘルス・パークがコーディネートするこのプロジェクトは、精神病の心理的治療に対する個別のアプローチを確立することを目的としています。プロトタイプは(人々に直接影響を与える可能性があるため)リスクが高いと考えられているという事実は、法的要件を満たし、プラットフォームが非差別的であることに注意を払う必要があることを意味します。さらに、現在の規制に従って安全であることが検証されるまで、自由に共有することはできません。
欠けているもの: AI との関係の変化
ただし、規制だけが必要なわけではありません。もっと退屈で複雑な仕事があります。それは、社会の考え方を変え、(特に若い人たちに) AI の使用法を教育することです。この方法によってのみ、テクノロジーが性差別的な側面を持つことを防ぐことができます。他の専門家と同様、タチアナ カルダス氏も、唯一の方法は教育と AI の文化の創造であることに同意します。 「自分の写真がインターネット上に公開される可能性があり、その写真があなたに悪影響を与える可能性があることを理解する必要があります。 ディープフェイク 露骨なイメージの。これは十代の若者たちに説明しなければなりません」と彼女は言う。カリーナ・ジベールも同意し、「AIを作る人、発明する人、買う人、売る人、使う人、消費する人すべての意識レベルを上げなければならない」と付け加え、「私たちは特定の性別に対する人の行動の影響を評価する教育システムに戻らなければならない」と付け加えた。学校では誰も教えてくれません。」
AIに代わるものはあるのでしょうか?カルダスさんの答えは、決してそうではありません。 「AI はどこにも行きません。電子メールの使い方を知らない人のようなものです。電子メールは、私たちの生活をより簡単かつ効率的にする、これからも残るツールとして見なされなければなりません。また、責任を持って使用する方法を学ばなければなりません」と彼は警告します。これは非常に強力なツールですが、AI のガバナンスを私たちが所有する必要があります。
#フェミニストAIは可能か
