ヨーロッパの人工知能法に関する 10 の回答 | テクノロジー

1710473097
2024-03-14 04:20:00

人工知能 (AI) システムとプログラムは、推論、学習など、人間の知能に典型的なタスクを実行できます (機械学習)、自然言語を認識し、理解し、問題を解決します。 それはすでに私たちの生活のあらゆる領域に存在しています。、通常のショッピングや映画鑑賞のアプリケーションから、新しい製剤の開発や生産プロセスの組織化まで。 これにより、タスクの自動化、意思決定、効率の向上が可能になり、医療、産業、ロボット工学、金融サービスなどのさまざまな分野でソリューションを提供できます。 欧州の AI 法は、倫理的および法的基準に基づいて AI の開発を保証することを目的として、段階的に適用され始めています。 以下は、世界の先駆的な取り組みによって生じた疑問に対する 10 の答えです。

なぜヨーロッパはそれを規制するのですか?

人工知能は社会に利益をもたらし、経済成長を促進し、イノベーションと競争力を向上させます。 これらのアプリケーションは通常、リスクをほとんどまたはまったく引き起こしません。 しかし、人工知能を使用して権利や自由に反する状況を引き起こす可能性もあります。 不要なポルノ画像 またはの使用 生体認証データ 外見の特徴や雇用、教育、医療、または予測警察プロセスにおける用途によって人々を分類する。

リスクのカテゴリは何ですか?

最小限のリスク: ほとんどのシステムがこのカテゴリに分類されます。 これらの用途では、サプライヤーは自主的に倫理要件を採用し、行動規範を遵守する場合があります。 汎用 AI は、1 秒あたり 10²5 浮動小数点演算 (FLOPS) の計算能力でトレーニングされた AI とみなされます。 FLOPS はコンピュータのパフォーマンスの尺度であり、委員会は前述の寸法をシステム上のリスクの可能性の閾値とみなします。 EU は、OpenAI の ChatGPT-4 と Google DeepMind の Gemini がこのしきい値に達する可能性があると考えており、委任された行為を通じて審査できると考えています。

高リスク: これらは、人々の安全や権利に影響を与える可能性のあるモデルです。 このリストは恒久的な見直しの対象となっていますが、この規格ではすでに、重要な通信および供給インフラストラクチャ、教育、人事管理、または必須サービスへのアクセスなど、このカテゴリに含まれる適用分野が想定されています。

許容できないリスク: このカテゴリに含まれるシステムは、基本的権利を侵害するため禁止されています。 このリストには、社会的分類やスコアリング、人々の脆弱性を利用したもの、および 身分証明書のもの 人種、意見、信念、性的指向、または感情的な反応。 人の失踪、誘拐、人身売買、性的搾取、生命や安全への脅威の防止、または現在または予見されるテロ攻撃の脅威への対応に関連する16の特定の犯罪を訴追するために警察が使用する場合には例外が設けられています。 。 緊急の場合に、例外的な使用が許可される場合がありますが、拒否された場合はすべてのデータと情報を削除する必要があります。 緊急でない状況では、基本的権利の観点から影響を事前に評価し、関連する市場監視当局およびデータ保護当局に通知する必要があります。

透明性に関する特定のリスク: 透明性によって生じる操作の危険性を指します。 本物っぽいデマ(ディープフェイク) または会話型アプリケーションを使用します。 この標準では、ユーザーが人工的な創造物を扱っていること、またはユーザーが機械と対話していることを明確に明らかにすることが求められています。

システミック リスク: この規格では、大容量システムの広範な使用が、サイバー攻撃や金融上のデマや偏見の拡散など、大規模または広範囲の損害を引き起こす可能性があることを考慮しています。

誰が法律に従わなければなりませんか?

EU 内で人工知能システムを使用する公的および民間のすべてのエージェントは、ヨーロッパ人であるかどうかに関係なく、法律を遵守する必要があります。 それはプログラムの提供者、プログラムを適用する人、そしてプログラムを購入する人に影響を与えます。 誰もが自分のシステムが安全で法律に準拠していることを確認する必要があります。 高リスクのシステムの場合、市場投入または運用開始の前後に、システムは適合性評価を受けて、データの品質、トレーサビリティ、透明性、人間による監視、正確性、サイバーセキュリティ、堅牢性を確保する必要があります。 。 システムまたはその目的が大幅に変更された場合は、この評価を繰り返す必要があります。 当局またはその代理を務める団体が使用する高リスク AI システムも、法執行や移民目的で使用される場合を除き、EU の公開データベースに登録する必要があります。 システムリスク(1025 FLOPSを超える計算能力)を持つモデルのプロバイダーは、リスクを評価して軽減し、重大なインシデントを報告し、高度なテストと評価を実施し、サイバーセキュリティを確保し、モデルのエネルギー消費に関する情報を提供する義務があります。

適合性評価には何を含めるべきですか?

プロセス、使用の期間と頻度、影響を受ける個人とグループのカテゴリー、特定のリスク、人による監視手段、およびリスクが現実化した場合の行動計画。

サプライヤーは自社製品の効果をどのようにして知るのでしょうか?

大企業はすでに標準に適応する独自のシステムを持っています。 この法律は、小規模な企業やオープンソース システムを使用する企業に対して、実際の状況で管理されたテストおよびリハーサル スペースを作成し、革新的なテクノロジーを 6 か月間テストするための管理された環境を提供し、多くの企業に拡張可能です。 検査の対象となる場合があります。

誰が免除されますか?

無料およびオープンソース モデルのプロバイダーは商業化義務を免除されますが、リスク回避義務は免除されません。 また、この規則は、研究、開発、試作活動、あるいは防衛や国家安全保障の用途を目的とした開発には影響しません。 汎用 AI システムは、技術文書の作成、EU 著作権法の遵守、システムのトレーニングに使用されるコンテンツの詳細な概要の配布などの透明性要件を満たす必要があります。

コンプライアンスを監視するのは誰ですか?

それは、 欧州人工知能局、監視システムとアプリケーションの認可のための科学諮問委員会と国家監視当局。 AI 機関およびオフィスは、義務を果たすために必要な情報にアクセスできる必要があります。

AI法はいつ完全適用されるのでしょうか?

AI 法は採択後、公布から 20 日後に発効し、24 か月後に段階的に完全適用される予定です。 最初の 6 か月以内に、加盟国は禁止されているシステムを廃止する必要があります。 1年以内に汎用AIに対するガバナンス義務が課されることになる。 2 年以内に、すべての高リスク システムが適切になるはずです。

違反に対する罰則は何ですか?

規制の要件を満たさない人工知能システムが販売または使用されている場合、加盟国は違反に対する効果的で比例的かつ抑止的な制裁を確立し、委員会に通知する必要があります。 罰金は最大 3,500 万ユーロまたは前会計年度の世界年間売上高の 7%、最大 1,500 万ユーロまたは売上高の 3%、最大 750 万ユーロまたは事業量の 1.5% となります。 各侵害カテゴリーにおいて、中小企業の場合は 2 つの金額のうち低いほうが、その他の企業の場合はしきい値が高くなります。

違反の被害者は何ができるでしょうか?

AI 法は国家当局に苦情を申し立てる権利を規定しており、高リスクの人工知能システムによって引き起こされた損害に対する個人の賠償請求を容易にします。

フォローできます EL PAÍS テクノロジー フェイスブック y バツ または、ここからサインアップして私たちのメッセージを受け取りましょう ニュースレターセマナル

続きを読むには購読してください

無制限に読む

_


#ヨーロッパの人工知能法に関する #の回答 #テクノロジー

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick