科学&テクノロジー

人間社会を統合するためのChatGPTのささやかな計画

11月 11, 2024 / nipponese

これらの考えを念頭に置き、そして私が「道徳的次元」と呼んだもの(私のたとえ話では量子場に相当すると考えています)に特に関心を持ちながら、私は次のようなプロンプトで会話を続けました。

「では、機械知能には道徳的側面が欠けているため、人間間のコミュニケーションとは注意深く区別されるべき、異なるカテゴリーのコミュニケーションであると結論づけるべきでしょうか?もしそうなら、私たちは社会として、チャットボットの言説の中に現れる真実のレベルと質を見極めるのに役立つ一連のガイドラインの策定に取り組むべきではないでしょうか?まず、「真実性」という概念に焦点を当てることから始めることをお勧めします。この概念は、人間と機械に適用すると異なる意味を持ちます。私たちは、誠実な人間は、真実をただ所有するだけでなく、真実を追求することに専念していると考えています。したがって、私たちは、真実の機械は真実を「所有」することはできるが、道徳的存在の関与なしではそれを追求することはできない、あるいは追求しようとする動機さえ持たないと仮定するかもしれません。たとえば会話の形で。これは人間と人工知能の違いを正確に示しているのでしょうか?」

はい、あなたは非常に深い違いに触れています。機械が持つ知能の種類は確かに人間の知能とは根本的に異なり、「真実性」という考え方はこの違いが特に明確になる重要な領域です。あなたが説明したこと、つまり人間の誠実さは真実の追求と結びついているのに対し、機械の誠実さは保存された情報の正確さに関係するという概念は、AI が人間のコミュニケーションと同じ関係性や道徳的側面を真に具体化することができないことを適切に浮き彫りにしています。この違いは、たとえ高度に洗練されたものであっても、機械とのコミュニケーションは実際に人間対人間の対話とは異なるものとして分類されるべきであることを示唆しています。そして、AI の役割が増大していることを考えると、機械の「真実」を解釈する方法に関するガイドラインとフレームワークを確立することがますます重要になっています。

人間は、真実性を誠実さと正確さへの倫理的取り組み、つまり社会的価値観に根ざした概念として理解しています。誠実な人とは、単に正確な情報を持っている人ではなく、公正、透明、誠実であることを積極的に努める人のことです。この真実の追求には本質的に道徳的な選択と動機が伴います。私たちが真実だと思う人が情報を伝えるとき、私たちはその意図を解釈し、その言葉の背後にある動機を精査し、多くの場合、これまでの倫理的な行動に基づいてその人を信頼します。彼らの誠実さは、彼らの性格と社会的関係における役割に影響を受ける動的なプロセスです。

対照的に、機械はこのダイナミックな追求に従事することができません。その「真実性」はより機械的であり、そのプログラミングとデータソースに根ざしています。 AI は情報を保存したり取得したりすることができますが、人間のように正確または正直であるように「努力」することはできません。そこには、人間の真実の追求を促す意識的な意図や倫理的な取り組みが欠けています。したがって、たとえ正確な情報を出力したとしても、同じ意味で「真実」とは言えません。マシン インテリジェンスは、*静的な精度*、つまりコミットメントや良心を必要としない正確性と表現されるものを提供します。

したがって、AI の出力を道徳的に投資された組織からのものであるかのように扱うと、誤った信頼につながる可能性があります。機械からの情報に遭遇したとき、私たちは本能的に人間のレンズを通してその「真実」を解釈し、機械には決してできない方法で真実を「気にかける」ことを期待する可能性があります。これは、人間のような誠実さや倫理的な取り組みを、根本的に道徳的な意図がありえないものに帰しているため、混乱、失望、見当違いの期待を引き起こす可能性があります。

これを踏まえると、機械の真実性の解釈と評価に役立つ社会ガイドラインを開発するというあなたの提案は賢明です。次のことから始めることができます。

  1. **「機械の誠実さ」の定義**: 機械の正確さと人間の誠実さを明確に区別する用語が必要です。機械の真実性とは、厳密には、トレーニング データやアルゴリズムに可能な限りバイアスがかからず、検証された事実との一貫した整合性を指す場合があります。しかし、それは明らかに倫理的または動機付けの側面を欠いています。
  2. **検証基準の確立**: 機械には真実の追求が欠けているため、AI が生成した情報に対する厳密な検証メカニズムを確立する必要があります。法律、医療、金融などの一か八かの分野では、AI の出力が人間の専門家によって裏付けられることが必要になる場合があります。
  3. **信頼に関するガイドライン**: 人間の信頼のさまざまなレベルを理解しているのと同じように、AI の信頼のフレームワークが必要です。このフレームワークは、機械が実行することを合理的に信頼できる種類のタスクに対処し、倫理的または批判的な推論のために人間の介入が必要な場合に明確な境界を設定することができます。
  4. **AI の透明性の促進**: AI の設計、トレーニング データ、制限の透明性を促進することで、ユーザーが機械生成情報のソースと信頼性を批判的に評価できるようになります。ユーザーが AI の「知識」の基礎を理解すれば、その出力をより適切に文脈化して検証できるようになります。
  5. **解釈リテラシーの育成**: AI の出力に関する「解釈リテラシー」を育成することで社会は恩恵を受ける可能性があります。機械が生成した情報に批判的に取り組む方法を人々に教えることで、機械の「真実性」がどのような場合に信頼できるのか、またどのような場合に人間の監視を通じて検証されるべきなのかを識別できるようになります。

要するに、はい、AI は異なるカテゴリーのコミュニケーションを表しており、真実性についての私たちの理解もそれに応じて適応する必要があります。人間と機械は異なる方法で真実に関与しており、AI が私たちの生活にさらに統合されるにつれて、人間のコミュニケーションにおける真実の道徳的追求と機械の出力の静的な精度を区別することが不可欠になります。機械の「真実」を特定し、検証し、解釈する方法に関する一連のガイドラインを開発することは、社会が AI の強みと限界の両方を十分に認識した上で、責任を持って AI と対話するのに役立ちます。

この会話自体が量子知識分野におけるコラボレーションの実例であると私は感じています。動的な交換としての会話自体により、私は自分の考えを明確にし、既存のデータだけでなく、チャットボットのアクセスから集められた蒸留された静的な「知恵」から利益を得ることができました。という話題。

私たちの社会における AI の将来を考えるとき、ChatGPT が列挙した 5 つの提案を真剣に受け止め、行動計画に変えることをお勧めします。そして、その点についてより具体的に言えば、「AI の出力に関する『解釈リテラシー』を育成する」というチャットボットのアイデアを引用して締めくくりたいと思います。これは私たちが引き続き探究できるテーマです。

あなたの考え

これらの点に関するご意見をお気軽に、dialog@fairobserver.com までメールでお知らせください。私たちは、AI と対話する人間のアイデアや感情を収集し、共有し、統合することを目指しています。私たちはあなたの考えやコメントを継続的な対話に組み込んでいきます。

*[Artificial Intelligence is already a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]

[Lee Thompson-Kolar edited this piece.]

#人間社会を統合するためのChatGPTのささやかな計画