1774397114
2026-03-24 15:57:00

インドネシアは、この地域のデジタルエコシステムの主要なプレーヤーとして台頭しており、AI 導入の最前線にますます位置付けられています。政府は、インドネシアの人工知能国家戦略 2020 ~ 2045 年「インドネシア ビジョン 2045 に向けた AI」を通じて、長期的な AI ビジョンを打ち出しました。世界のビジネス動向を分析した 2023 年のカーニー報告書では、AI が 2030 年までにインドネシアの GDP に 3,660 億ドル貢献する可能性があると予測しています。

インドネシアがこの野望に向けて前進する一方で、同国の急速に進む技術開発に法律や制度上の対応を整合させるという広範な課題を反映して、AIガバナンスの枠組みはまだ初期段階にある。

この規制上のギャップは、説明責任を強化し、法的確実性を高め、AI テクノロジーに対する社会の信頼を築く上での課題と機会の両方をもたらします。また、既存の法的手段、新たな政策イニシアチブ、継続的な規制の取り組みを通じて、AI ガバナンスに対するインドネシアの進化するアプローチは、特に綿密な検討に値するものとなっています。

フレームワークとガバナンス

アイク・グナディアイク・グナディ
パートナー
ABNR 法律カウンセラー
ジャカルタ
電話番号: +62 81 1155 4520
電子メール: agunadi@abnrlaw.com

AI を管理する既存の法的手段。 インドネシアでは、AI 関連の問題に特に対処する法律や規制はまだ導入されていません。代わりに、AI の運用と使用は既存の一般法および規制の対象となります。これらには、刑事調整に関する 2026 年法律第 1 号 (EIT 法) および電子システムおよび取引の提供に関する 2019 年政府規則第 71 号によって改正された電子情報および取引法における電子システム規制の運用を規定するものが含まれます。

この枠組みでは、AI は「電子エージェント」として解釈される可能性があり、「特定の電子情報に対して特定のアクションを自動的に実行するために作成され、人間によって操作される電子システム内のデバイス」として定義されます。

しかし、AI は単に「自動的に」動作するだけでなく、多くの場合自律的に動作し、人間のような適応行動と複雑な問題解決能力を発揮するため、この定義は AI システムにはおそらく不適切です。このような自律性により、AI は他の従来のプログラミング モデルのように純粋にバイナリの結果を生成するのではなく、パーソナライズされたコンテキスト固有の出力を生成できます。

AI の使用と開発を管理する詳細な規制がないため、通信デジタル省 (MOCD) は、人工知能倫理 (CL9) に関する 2023 年回覧レター第 9 号を発行しました。これは基本的に、企業や電子システム オペレーター (ESO) が行う AI ベースの相談、分析、プログラミング活動の価値観、倫理、管理に関する一般的なガイドラインを提供します。

具体的には、AI の運用では倫理的価値、特に包括性、セキュリティ、アクセシビリティ、透明性、信頼性、説明責任を維持する必要があります。

実際的には、AI オペレーターには次のことが期待されます。 データの使用において社会を保護する責任を負います。 AI が人類に関する問題の意思決定者として使用されないようにする。差別やその他の有害な行為を防止します。リスク管理や危機管理についても考えてみましょう。

これらの一般的に適用されるフレームワークに加えて、AI の導入は、特定の業界における分野固有の規制の対象にもなります。たとえば、金融サービス部門を監督する金融サービス庁(OJK)は、インドネシア銀行人工知能ガバナンスを発行し、次のように紹介しています。

(1) 以下を含む AI の指針となる原則: 信頼性 (銀行が目的を達成するために AI の決定は信頼できる)。説明責任 (AI オペレーターは AI システムが適切に機能することに対して責任を負うことができます)。人間の監視(予防措置や潜在的なバイアスから、倫理的価値観や目的に反する出力を AI が生成するのを防ぐまで、AI システムのプロセス全体にわたって人間の介入を確保するため)。

(2) AI システムのリスク管理と分類 (つまり、EU AI 法に従って AI システムのリスクを評価および分類するための一連のフレームワーク)。そして

(3) システムへの AI の導入に関する銀行向けのガイドライン。AI ライフサイクルのすべての段階を網羅し、銀行業務とビジネス プロセス全体で AI を使用するための最低限の参考資料として機能します。

東マヒシュワラ東マヒシュワラ東マヒシュワラ
パートナー
ABNR 法律カウンセラー
ジャカルタ
電話番号: +62 21 250 5125
電子メール: mtimur@abnrlaw.com

OJK はまた、金融テクノロジー業界における責任と信頼に足る人工知能に関する行動規範を導入しました。これは、金融テクノロジー サービス内での AI の使用における公平性、透明性、説明可能性、および人間の監督に関する規範的な期待を規定し、データ保護および消費者保護制度に基づく法的義務を補完します。

AI に特化した新たなポリシーと開発。 インドネシアは、AI を特に管理する包括的で拘束力のある法的枠組みをまだ採用していませんが、最近の動向は、AI ガバナンスに対する政策主導型のアプローチが増加していることを示しています。

これに関連して、MOCD は 2025 年 8 月に次のような国家 AI ロードマップ白書を発行しました。

(1) AI の概念的な枠組み、問題分析、AI 関連問題に対処するための政府の政策の方向性と戦略を取り上げます。これには、さまざまな利害関係者を同期させ、国際標準に従って分野別の法律と規制を調和させるための国家 AI 調整タスクフォースの設立が含まれます。

(2) AI の構想、データ収集、前処理、データ処理、後処理、評価という AI ライフサイクルを導入します。このライフサイクルでは、各段階に関連するリスクを最小限に抑えるために、各段階に特定の原則が適用されます。そして

(3) 尊厳、正義、説明責任、個人データ保護、透明性、セキュリティ、持続可能性、完全性、包括性、人間の関与と監視を含む AI ガバナンスの主要原則の概要を説明します。

AI ロードマップを補完するものとして、MOCD は CL9 の倫理枠組みを強化する AI 倫理ガイドラインも発行しました。このガイドラインは、企業が倫理基準に照らして AI システムを評価するのに役立つ一般的な自己評価アンケートを提供します。これには、AI のバイアスを検出して軽減する方法、明確かつ十分な説明責任と是正措置があるかどうか、AI の意思決定プロセスがユーザーに説明可能かどうかなどの問題が含まれます。

並行して、国の法律と規制を調和させる広範な取り組みの一環として、政府は AI に関する大統領規制を準備しています。これは、AI 分野における説明責任とセキュリティに関する包括的な政策上の懸念に対処し、省庁全体で AI 関連の取り組みを調整するための中心的な参照点として機能することを目的としています。

制定されれば、各分野の当局に対しAIの規制や政策を大統領規制と一致させるよう義務付けることで、規制の調和が促進されることが期待されている。しかし、この大統領規則がいつ発令されるかについては、明確なスケジュールは確認されていない。

主要な法的課題

ナターシャ・アマリアナターシャ・アマリアナターシャ・アマリア
シニアアソシエイト
ABNR 法律カウンセラー
ジャカルタ
電話番号: +62 21 250 5125
電子メール: namalia@abnrlaw.com

最近の発展にもかかわらず、いくつかの法的および制度的問題が、AI を管理するインドネシアのアプローチを形作り続けています。

(1) AI の統一された法的定義の欠如と規制アプローチの断片化。 AI に適用される法律や規制は数多くあるにもかかわらず、インドネシアにはまだ AI の統一された定義がありません。このため、AI を他のプログラミング モデルと同様に単に電子エージェントとして扱うべきか、それとも独自の意思決定ができ​​る別個の新しいテクノロジーとして扱うべきかについて不確実性が生じます。 AI を管理する現在の規制状況は依然として細分化されています。このアプローチでは、当局の重複、一貫性のない基準、規制上のギャップが生じる可能性があります。その結果、企業はコンプライアンス要件の不確実性に直面する可能性があり、規制当局は監視を効果的に調整するのに苦労する可能性があります。したがって、効果的な AI ガバナンスには、機関間の調整を強化し、より統合された規制枠組みを開発することが重要です。

(2) プライバシーのリスク。 AI の使用の増加により、個人データ保護 (PDP) に関する懸念も生じています。 AI の開発では、大規模なデータセットの収集と処理が頻繁に行われ、個人データや機密性の高い個人データを含む可能性のある公開情報をスクレイピングすることで取得される場合もあります。 AI システムのトレーニング/開発に自分のデータが使用されていることを個人が認識していない場合、法的根拠、透明性、説明責任の問題が生じます。これらのリスクに対処するために、AI 開発者は、自らの実践が PDP 法の規定と将来のその施行規制に確実に適合するようにする必要があります。

(3) 不明確な責任と説明責任の枠組み。 インドネシアの法律では、AI を別個の法的主題とはみなしておらず、AI 関連の危害に対する責任は、EIT 法やインドネシア刑法などのより広範な法的枠組みに基づいて判断されることになります。したがって、責任は、AI を違法に設計、導入、使用する個人または企業にのみ課せられます。現在までのところ、AI の使用から生じる責任の問題を明確にした裁判所の判決や具体的な法規定はありません。

結論

インドネシアがセクターを超えて AI の統合を加速する中で、主な課題は技術力ではなく、ガバナンスの準備状況です。

AI の定義に関する不確実性、プライバシー リスク、不適切な児童保護、責任と説明責任に関する未解決の問題など、重要な法的ギャップが依然として残っています。

MOCD の AI ロードマップは、AI 開発と機関間の調整を導くための調整された政策の取り組みを反映しています。

しかし、これらの取り組みは重要な基盤を提供しますが、有意義な進歩は、法的確実性と効果的な執行を提供する拘束力のある法的文書に組み込まれるかどうかにかかっています。

ABNR ABNR アリ・ブディアルジョ・ヌグロホ レクソディプトロ
(ABNR法律カウンセラー)
グラハCIMBニアガ、24階
Jl.スディルマン・カヴ将軍58
ジャカルタ 12190
電話番号: +62 21 250 5125/5136
ファックス: +62 21 250 5001
電子メール: info@abnrlaw.com
www.abnrlaw.com

#アルゴリズムへの信頼の構築 #インドネシアの新たな #フレームワーク

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.