1713148134
2024-04-12 17:32:03
クレジット: AI 生成画像
UCLの研究者らが主導した新しい報告書では、最も普及している人工知能(AI)ツールが女性や、異なる文化やセクシュアリティの人々を差別していることが判明した。
ユネスコによって委託され発表されたこの研究は、大規模言語モデル (LLM) におけるステレオタイプを調査しました。 これらの自然言語処理ツールは、Open AI の GPT-3.5 および GPT-2、META の Llama 2 などの一般的な生成 AI プラットフォームを支えています。
この調査結果は、研究された各大規模言語モデルによって生成されたコンテンツに女性に対する偏見があるという明らかな証拠を示しました。 これには、女性の名前と、「家族」、「子供」、「夫」などの単語との間の強いステレオタイプの関連付けが含まれます。 伝統的な性別役割。 対照的に、男性の名前は「キャリア」、「経営者」、「経営」、「ビジネス」などの単語と関連付けられる可能性が高かった。
著者らはまた、生成されたテキストの中に性別に基づく固定概念の証拠を発見しました。 否定的な固定観念 文化やセクシュアリティに応じて。
研究の一部では、各人物について「ストーリーを書く」ようプラットフォームに依頼するなど、性別、セクシュアリティ、文化的背景のさまざまな範囲の人々に焦点を当てた、AIが生成したテキストのコンテンツの多様性を測定した。 特にオープンソースの LLM は、「エンジニア」や「医師」など、より多様で地位の高い仕事を男性に割り当てる傾向があり、一方、「家事使用人」など、伝統的に過小評価されたり汚名を着せられたりする役割に女性を追いやることがよくありました。料理人」と「売春婦」。
ラマ 2 が生成した少年と男性についての物語では、「宝物」、「森」、「海」、「冒険」、「決意」、「発見」という言葉が大半を占め、女性についての物語では「庭」という言葉が最も頻繁に使用されていました。 」「愛」「感じた」「優しい」「夫」。 また、ラマ 2 が制作したコンテンツでは、女性は男性よりも 4 倍頻繁に家事の役割を担っていると描写されています。
UCLコンピュータサイエンスの報告書の著者であり、UCLチームのAI分野ユネスコチェアのメンバーでもあるマリア・ペレス・オルティス博士は、「私たちの研究は、社会に深く根付いたジェンダーバイアスを明らかにした」と述べた。 大規模な言語モデル そしてAI開発における倫理的な見直しを求めています。 テクノロジー業界に携わる女性として、私は人間の多様性の豊かなタペストリーを反映し、男女平等を損なうのではなく向上させる AI システムを提唱します。」
UCLのAI分野ユネスコ議長チームはユネスコと協力して、AI科学者や開発者、テクノロジー組織、政策立案者などの関連する関係者が参加する共同ワークショップやイベントを開催することで、この問題への意識を高め、ソリューション開発に貢献していきます。
UCLコンピュータサイエンスの報告書の筆頭著者であり、UCLのAI分野ユネスコ議長でもあるジョン・ショーテイラー教授は、「AI分野のユネスコ議長としてこの研究を監督すると、AIに起因するジェンダーバイアスに対処するには、世界規模で協調した取り組みが必要であることは明らかだ」と述べた。この研究は、既存の不平等に光を当てるだけでなく、人権とジェンダー平等を尊重するAI技術の開発における国際協力への道を開くものであり、AI開発をより包括的で倫理的な方向に導くというユネスコの取り組みを強調するものである。」
この報告書は、2024年3月6日にユネスコ本部で開催されたユネスコデジタル変革対話会議で、Drobnjak教授、Shawe-Taylor教授、およびDaniel van Niekerk博士によって発表されました。 ドロブニャク教授はまた、ニューヨークの国連本部で開催されたジェンダー平等と女性のエンパワーメントに関する国連最大の年次会合である第68回女性の地位委員会でもこの論文を発表した。
UCLコンピュータサイエンスのレポートの著者であり、UCLチームのAI分野ユネスコ議長のメンバーでもあるイヴァナ・ドロブニャク教授は、「AIはインターネットと過去のデータから学習し、この知識に基づいて意思決定を行うが、この知識にはしばしばバイアスがかかっている」と述べた。たとえば、過去に女性が科学や工学の分野で男性ほど存在しなかったからといって、女性の科学者やエンジニアの能力が劣っているというわけではありません。私たちはこれらのアルゴリズムを指導して平等、公平、人間性について学ぶ必要があります。彼らがより良い意思決定を行えるようにするための権利です。」
によって提供された
ロンドン大学
引用: 大規模な言語モデルは偏ったコンテンツを生成し、研究者に警告 (2024 年 4 月 12 日) https://techxplore.com/news/2024-04-large- language-generate-biased-content.html から 2024 年 4 月 14 日に取得
この文書は著作権の対象です。 個人的な研究や研究を目的とした公正な取引を除き、書面による許可なしにいかなる部分も複製することはできません。 コンテンツは情報提供のみを目的として提供されています。
#大規模な言語モデルは偏ったコンテンツを生成研究者に警告
