ジャン・ゴヴェ牧師は、人工知能が社会、そして教会に、最も古い哲学的問いの一つである「人間とは何か」という新しい形での問いかけに直面させていると語る。 AIツールが教育、人間関係、意思決定に急速に組み込まれるにつれ、倫理的な指導がなければ、AIツールは自律性や批判的思考、人間の繁栄を損なう形で人間の行動を静かに作り変える危険があると同氏は警告する。
ゴヴェ氏はカトリックの司祭であり哲学者であり、神学、分析哲学、AI倫理の交差点において稀な地位を占めている。地元では、マルタ大司教区内で AI の教区コーディネーターを務めており、AI リテラシーを教会学校に組み込む取り組みを主導しています。国際的には、バチカン内部での助言的役割や海外での学術協力など、人工知能に関する研究や政策議論に貢献している。
彼の仕事は、AI が人間の尊厳を損なうことを許さずに AI の利点をどのように活用するかという、増大する世界的な議論の中心に彼を位置づけています。
「我々は純粋に技術的な問題に取り組んでいるわけではない」と同氏はインタビューで語った。 日曜日のマルタ・インディペンデント。 「私たちは人間の問題、つまり何が私たちを繁栄させるのか、人間関係が何を意味するのか、そしてどのような社会を築きたいのかを扱っているのです。」
ゴヴェ氏の AI 倫理への道は、工学やコンピューター サイエンスからではなく、哲学から始まりました。 2019年の叙階前に、彼はセント・アンドリュース大学で論理、言語、思考の関係に焦点を当てて分析哲学を学ぶためにスコットランドに送られた。彼の学術的な研究では、神経人工装具や仮想現実をめぐる疑問など、心の哲学を探求しました。
彼の中心的な研究関心の 1 つは、技術的に統合されたデバイスが人のアイデンティティの一部になり得るかどうかということでした。 「神経人工装具が誰かの動きや知覚を回復させるとしたら、その装置は単にその人に取り付けられているだけなのでしょうか、それともその人自身の一部になるのでしょうか?」と彼は説明した。
博士課程の研究中に人工知能が日常生活に急速に浸透し始めると、それらの初期の哲学的疑問は新たな緊急性を帯びるようになりました。認知と人間の意識に対する彼の長年の関心は、当然のことながら、機械が思考し、理解できるか、あるいはいつかは意識を持つことができるかどうかについての新たな議論にも広がりました。
現在、香港大学の AI & Humanity Lab の研究員として、AI の認知、操作リスク、トランスヒューマニズムに関連する広範な倫理的課題に焦点を当てて研究を行っています。
しかし、彼の最も注目に値する仕事の多くは、身近なところで行われています。マルタには現在、学校に標準化されたAIカリキュラムが存在しておらず、ゴヴェ氏はこのギャップが緊急かつ危険であると述べている。彼のアプローチは技術的なトレーニングに焦点を当てるのではなく、教師から始まる形成に重点を置いています。
「最も迅速かつ効果的な対応方法は、教育者を教育することだ」と同氏は述べた。 「教師が AI をいつどこで使用すべきか、またいつ使用すべきではないかを理解していれば、その知識は自然に生徒に伝わります。」
彼の指導による教会学校の取り組みには、教師向けの専門研修セッション、責任ある AI 使用に関する政策草案、AI ツールの限界を強調しながら生徒に AI ツールを紹介するパイロット プログラムなどが含まれます。教育者向けの認定された大学院コースも、養成機関と協力して開発されています。
ゴヴェにとっての目標は、単に学生にデジタル経済への準備をさせることではなく、重要な人間スキルを確実に保持することです。
「私たちは学生が技術的に成功することを望んでいます、そうです」と彼は言いました。 「しかし、成功とはデジタル能力や試験の結果だけではありません。また、対人スキル、批判的思考、他者と有意義に関わる能力も重要です。」
この強調は、人間関係をシミュレートするように設計された AI システムの台頭という、彼の最大の懸念の 1 つを反映しています。 AI コンパニオンからセラピー チャットボットに至るまで、そのようなツールは微妙だが重大なリスクを引き起こすと彼は考えています。
「これらのテクノロジーは、非常に迅速かつ非常に効率的なものを提供します」と彼は言いました。 「しかし、彼らは、本当の人間関係を犠牲にしてそうしています。もし彼らが友情、精神的サポート、さらには親密さなどの関係を置き換え始めれば、私たちは気づかないうちに自分自身を傷つけることになります。」
同氏は、ユーザーは通常、自分が AI と対話していることを認識していると指摘する。危険は欺瞞にあるのではなく、利便性にある、と彼は主張する。 AI 関係はほとんど労力を必要とせず、脆弱性や社会的リスクもないため、実際のやり取りに代わる魅力的な手段となります。
「誰かに会うための儀式も、約束も、交渉もありません」と彼は言った。 「そのほうが楽です。しかし、人間の成長は楽さだけでは起こりません。」
彼が特に懸念しているのは、AI システムにおける「お調子者」傾向、つまりユーザーに同意し、ユーザーの意見を強化しようとする傾向であると彼が表現するものです。セラピストや教師などの人間の専門家とは異なり、AI ツールが仮定に異議を唱えたり、困難な真実を提供したりすることはほとんどありません。
「人間のカウンセラーはあなたと矛盾するかもしれません」と彼は言いました。 「彼らはあなたが聞きたくないことをあなたに言うかもしれません。AIはあなたが聞きたいことをあなたに伝えることがよくあります。それは成熟と内省を妨げる可能性があります。」
ゴヴェ氏は個人的な関係を超えて、より広範な社会的リスクを認識している。同氏は、行動操作、的を絞った説得、批判的思考の侵食など、ソーシャルメディアですでに観察されているパターンがAIによって大幅に増幅される可能性があると考えている。
同氏は特に、AIシステムが高度にパーソナライズされた、しばしば目に見えない形で個人に影響を与える可能性がある、同氏が「深層操作」と呼ぶものについて警告した。
「AIは深い操作の可能性をもたらします」と彼は言いました。 「親密なデータを使用してメッセージをパーソナライズし、中立的に見えるが実際はそうではない方法で会話を誘導できます。」
このようなリスクがあるため、教育と倫理設計が不可欠になる、と彼は主張する。これらがなければ、人々は情報、意思決定、感情的なサポートを自動システムに無批判に依存するようになるため、社会は徐々に主体性を失う可能性があります。
より深いレベルでは、ゴヴェの研究は、AI を取り巻く最も複雑な哲学的問題の 1 つである、機械が意識を持つことができるかどうかにも取り組んでいます。
彼はこの問題に慎重に取り組み、公の議論では人工知能と人間の意識の両方が誤解されることが多いと示唆しています。
「私たちはすでに、人間に近い方法でこれらのツールと関わっています」と彼は言いました。 「しかし、それは彼らが私たちと同じように考えているとか、人間の意識のようなものを持っているという意味ではありません。」
本当の危険は、機械が人間になることではなく、人間が機械のような言葉で自分自身を再定義し始めるかもしれない、と彼は信じている。
「私たちは効率、スピード、生産性によって自分自身を測る危険を冒しています」と彼は言う。 「しかし、人間の尊厳は効率性に根ざしているのではありません。人間関係、意味、目的に根ざしています。」
ゴヴェ氏はまた、世界的な AI 議論において宗教機関が独特の役割を担っていることも強調している。何世紀にもわたって倫理、人間性、共通善について熟考してきた信仰の伝統は、純粋に技術的な議論には欠けがちな視点を提供することができます。
同氏は、テクノロジーリーダーらは近年、人工知能をめぐる倫理的懸念について話し合うためのAI幹部と教皇フランシスコとの過去の会合など、宗教関係者との対話を模索していると指摘した。
同氏は、「こうした問題は技術的、経済的なものだけではなく、根本的に人間的なものであるという認識がある」と述べた。
リスクにもかかわらず、ゴヴェ氏は AI が本質的に脅威であるとは考えていません。彼は、医学、アクセシビリティ、翻訳、管理などの分野におけるその変革の可能性を認めています。課題は、イノベーションが人類の繁栄に取って代わるのではなく、確実に人類の繁栄に役立つようにすることだと彼は主張する。
「問題はAIが進歩するかどうかではなく、進歩するだろう」と同氏は語った。 「本当の問題は、我々が責任を持ってそれを指導するかどうかだ。」
マルタの教会学校の場合、その指導は教育、識別力、倫理意識から始まります。社会全体にとって、そのリスクははるかに高いとゴヴェ氏は考えている。
「これはテクノロジーだけの問題ではありません」と彼は言う。 「これは、私たちがどのように考え、どのようにお互いに関係し、良い人生を送ることが何を意味するのかという未来に関するものです。」
#司祭兼哲学者が人類の繁栄に対するリスクを警告教会がAIの境界線形成に動く