世界

研究によると、透明性、説明責任、公平性を確保するには合成データに明確なガイドラインが必要

4月 14, 2024 / nipponese

1713053703
2024-04-13 10:56:02

クレジット: Pixabay/CC0 パブリック ドメイン

新しい研究では、透明性、説明責任、公平性を確保するために、合成データの生成と処理について明確なガイドラインを確立する必要があると述べています。

合成データは、元の実世界データから機械学習アルゴリズムを通じて生成され、従来のデータ ソースに代わるプライバシー保護の代替手段となる可能性があるため、注目を集めています。 これは、実際のデータが機密すぎて共有できない場合、不足しすぎている場合、または品質が低すぎる場合に特に役立ちます。

合成データは、として知られるアルゴリズム モデルによって生成されるため、現実世界のデータとは異なります。 合成データ 敵対的生成ネットワークやベイジアン ネットワークなどのジェネレーター。

この研究は、既存の データ保護法 にのみ適用される 個人データ あらゆる種類の合成データの処理を規制する機能が十分に備わっていません。

GDPR などの法律は、個人データの処理にのみ適用されます。 GDPR の個人データの定義には、「特定された、または特定可能な自然人に関するあらゆる情報」が含まれます。 ただし、すべての合成データセットが完全に人工的であるわけではありません。一部には個人情報が含まれている場合や、再識別のリスクがある場合があります。 完全に合成されたデータセットは、再識別の可能性がある場合を除き、原則として GDPR ルールの対象から除外されます。

完全に合成されたデータ処理のコンテキストでアプリケーションをトリガーするには、どのレベルの再識別リスクが十分であるかは依然として不明です。 そのため、そのようなデータセットの処理には法的な不確実性と実際的な困難が生じます。

勉強エクセター大学のアナ・ベドゥスキ教授による論文が雑誌に掲載されました。 ビッグデータと社会

合成データの生成と処理の責任者に責任を問うための明確な手順が必要だとしている。 既存の偏見を永続させたり、新たな偏見を生み出したりするなど、個人や社会に悪影響をもたらす方法で合成データが生成および使用されないという保証が必要です。

Beduschi教授は、「あらゆる種類の合成データに対する明確なガイドラインを確立する必要がある。優先順位を付ける必要がある」と述べた。 透明性説明責任 そして 公平性。 このようなガイドラインを持つことは、生成 AI や DALL-E 3 や GPT-4 などの高度な言語モデル(どちらもトレーニングおよび合成データの生成が可能)であるため、誤解を招く情報の拡散を促進し、社会に悪影響を与える可能性があるため、特に重要です。 したがって、これらの原則を遵守することは、潜在的な害を軽減し、責任あるイノベーションを促進するのに役立つ可能性があります。

「したがって、合成データはそのように明確にラベル付けされ、その生成に関する情報がユーザーに提供されるべきです。」

詳しくは:
Ana Beduschi、合成データ保護: データ規制のパラダイム変化に向けて?、 ビッグデータと社会 (2024年)。 DOI: 10.1177/20539517241231277

によって提供された
エクセター大学


引用: 透明性、説明責任、公平性を確保するには合成データに明確なガイドラインが必要であると研究が述べている (2024 年 4 月 13 日) https://techxplore.com/news/2024-04-guidelines-synthetic-transparency-accountability- から 2024 年 4 月 13 日に取得公平性.html

この文書は著作権の対象です。 個人的な研究や研究を目的とした公正な取引を除き、書面による許可なしにいかなる部分も複製することはできません。 コンテンツは情報提供のみを目的として提供されています。

#研究によると透明性説明責任公平性を確保するには合成データに明確なガイドラインが必要