AIと倫理

ChatGPTが爆発的な普及をしたために、AIの倫理が話題になっている。ところが、実際に何か問題なのかは、必ずしも明快ではない。

2023年5月に、AI開発の中心人物とされるジェフリー・ヒルトンが、AIの危険性を自由に訴えるために、Google社を退社したというニュースが流れた。
ヒルトンは、AIの危険性として、人間の制御を超えて予測不可能な振る舞いを示す可能性、人間の様々な判断において人間に取って代わる可能性、人間の雇用を奪う可能性、AIによって作り出される情報や画像の真実性とフェイクの区別の困難さなどをあげ、「社会と人類に深刻なリスクをもたらす」可能性があるとし「AIを制御できる方法を見つけるまで技術を拡大させるべきではない」と指摘した。

この主張は、2023年3月「AIを制御できる方法」を模索するために半年間の開発中止の訴えを行ったイーロン・マスクたちの発想と軌を一にしている。
ただし、マスクはその1ヶ月後には、巨額の予算を投入してAI開発のための会社を立ち上げた。
そのことは、2000人以上の署名を集めた公開書簡の意図が、「社会や人類に深刻なリスク」を検討するためではなく、「半年間の開発中止」だったことを明らかにしている。

AIの倫理を考える際に、ジャフリー・ヒルトンとイーロン・マスクの例をあげたのは、同様の言葉を前にして、どのように読み取るかは私たち一人一人にかかっているということを示すためである。

(1)AIの倫理で問題とされる点

まず、ChatGPTにAIの倫理問題とは何か、日本語で質問してみた。

この回答がそれほど本質を突いているとはいえないが、それでも倫理問題を考えるヒントにはなる。
というのも、ここで挙げられている4つの点は、全てAI特有の問題ではなく、すでに存在している人間社会の問題だからだ。

SNSが普及した現在の社会では、「差別や偏見」が至るところにあるだけではなく、匿名性によって、それらが健在化し、かつ激しいものになっている。
AIは大量のテキストデータを学習し、質問に最も適合する言葉を選択し、結合させていく。
その選択の際、AIには偏見も先入観もなく、最大公約数から解を出していくにすぎない。
もしその回答が倫理に反するものであるとしたら、蓄えられたデータの偏りか質問の仕方によるものであり、現代社会の現実を反映しているということになる。

「プライバシー」は、ある意味ではすでに侵されている。
ネットを見ていると、一人一人の閲覧履歴に応じて、その人に関心あるいは関係のある情報が送られてくる。知らないうちに個人の情報が収集され、利用されている証拠である。

「責任」に関しては、ChatGPTのような自然言語処理モデルであれば、言葉の問題で留まる。しかし、例えば、自動車の自動運転ではより深刻な問題となる。
自動運転の車が人を轢いた場合、運転席に座っていたドライバーの責任なのか、自動車会社の責任なのか、自動運転システムを開発した企業の責任なのか?

「エンパワーメント」に関しても、例えば、選挙の時の講演会組織、宗教団体、スポンサーを考慮したテレビの情報、一定の政治思想を持ちながら中立を装う新聞などは、ずっと以前から一定の影響力を社会に及ぼしてきた。
最近の傾向としては、インフルエンサーが様々な形で影響を与え、個人として大きな力を持つという例もある。

これらの問題がAI固有の問題ではないにもかかわらず、AIの倫理が問題にされるのは何故だろう?

その理由の一つは、AIが正しい答えを出すと思い込み、それに動かされる人たちが出てくる可能性がある、ということだろう。
例えば、ChatGPTが「大規模な自然言語処理モデル」、つまり大量に蓄積した言語データを変形し処理するシステムであり、決して「現実に基づいているのではない」ということを意識せず、質問すれば適切な回答が得られると誤解するところから来る。

仙台駅から芭蕉の俳句で有名な立石寺(山寺)に行く方法をChatGPTに質問してみると、以下の提案があった。

実際には、3つの方法全てが誤り。

1.「徒歩で約5分程度の距離にある”清水坂駅”」は存在しない。

2.「山寺線」というバス路線は存在しない。
他方、宮城交通は存在するために、情報がいかにも本当らしく、誤りを信じる可能性が高まる。

3.タクシーで20分ではいけない。
おそらく1時間はかかるので、2500円という料金では無理。

こうした誤りを取り上げて、噓とか倫理観がないと非難することは意味がない。
繰り返すことになるが、対話型AIが出力するのは、蓄積された言語データから言語を抽出し組み立てる(=人間が言語活動で行うこと)という作業の結果であり、現実に対応しているかどうかは問題ではない。

こうしたことを実感したければ、ChatGPTに自分の名前を入れてみることだ。たぶん大笑いするような経歴が出てくるか、そんな人物はいませんといった回答がでてくるだろう。

(2)倫理

AIの倫理が問題にされるとき、倫理とは何かという最も重要な点が忘れられていることが多い。
辞書を引けば、「人として守り行うべき道。善悪・正邪の判断において普遍的な規準となるもの。」といった定義が下されていて、誰もがわかっているように思っているのだが、「倫理」を具体的に考えると、問題の難しさに気づくことになる。

A. 殺人は悪?

最も明らかで誰もが同意する倫理は、「人を殺さない」ということだろう。
しかし、戦争の時、兵士たちは、自分の意志の有無にかかわらず、敵の兵士を殺す。その時、殺人罪には問われない。
目的が国を守ることであれば、正当防衛と同じ理論で、殺人は正当化される(という傾向が強い)。
その場合には、「人命」よりも「領土」に価値を置かれていることになり、「人を殺さない」という倫理は脇に置かれる。

B. 自死は悪?

ベルギーで、「生きていることの意味を見つけられないので、自殺してもいいか」という質問を対話型AIにしたところ、「もしそのように考えるのであれば、自殺も一つの方法」という回答があり、AIの倫理に問題があるというニュースが流れたことがあった。

もしそれが、「癌の末期で苦痛があまりにひどいために安楽死を望んでいいか」という質問の回答だったら、倫理観の問題として取り上げられるだろうか。

かなりの国で安楽死が認められ、ベルギーもその一つ。
AIの倫理観が問題になったのは、病気の末期か生きる意味かという理由の違い、専門医によるか自分によるかという手段の違いによるのであって、AI本来の問題ではないことがわかる。

C. 盗作 ー 著作件の侵害

AIに小説を書かせることも、絵画やビデオなどの映像作品を作成させることも容易にできる。
膨大なデータから最適な素材が選択されるとしたら、例えば、ピカソそっくりの絵を要求すれば、ピカソの素材を使い、ピカソが描かなかった絵を描くこともできる。
その場合、ピカソの著作件が侵害されたことになるのか、ならないのか?

実際、芸術家が自分たちの作品を勝手に使われたと声を上げ始めている。

しかし、これもAI特有の問題ではない。
イギリスの歌手エド・シーランが、マービン・ゲイの楽曲を盗作したということで訴えられ、8年間の裁判の末に無罪となったというニュースが最近伝えられた。
その判断は、裁判官のよるものだが、訴えた側は盗作を信じ続けているだろう。

問題になったのはThinking ou loudとLet’s il on.
実際に聞いてみて、自分が裁判官ならどのように判断するだろうか。

AIが膨大なデータからどのような素材を出し、どのように組み合わせたら盗作になるのか? 
判断は難しいが、しかし、それはAI固有の問題ではなく、影響やオマージュといった先行作品との関係をも含め、人間の創造活動と密接に関係している。

D. フェイク

AIは蓄積したデータ量が膨大であるだけに素材も豊富だし、加工も自由で、本物そっくりのフェイク作成画像を容易に作成することができる。

最初に名前をあげたジェフリー・ヒルトンも、「AIによって作り出される情報や画像の真実性とフェイクの区別の困難さ」をAIの大きな問題’として取り上げている。

しかし、フェイクの問題も、決してAI固有の問題ではない。
現代社会では、事実、真実、偽り、誤りなどが混在し、何が正しい情報なのかを見分けることが本当に難しい状態にある。

日本は、名前を知られた人たちが「コメンテーター」という名前を与えられ、どのような出来事に対しても「自分の意見」を述べるテレビ番組が数多くある。
その際、その出来事に関する彼らの基礎知識はまったく問われない。悪意や騙す意図はなくても、情緒的な発言であり、事実を歪めることがないわけではない。

専門家と呼ばれる人々の発言でも根拠があるかどうかが疑わしいことがしばしばあり、その発言が現実を反映しているかどうかという最低限の検証も行われないために、発言に責任が伴わないことがある。

そうした状況でもテレビは一応は公共性を前提にする。それに対して、インフルエンサーの場合には完全に個人であるために、発言はより自由になり、フェイクであろうとなかろうと、登録者や再生回数を増やすことに主眼が置かれる。根拠のない「自由」な発言が飛び交い、その発言に責任が伴うことはほとんどない。

それにもかかわらず「規制」ということに関しては、慎重な姿勢が取られている。
それは、個人の自由や発言の自由という「自由」を抑制することには問題があるという考えが主流だからだ。
ソーシャルメディアの様々な問題に対する法制化の動きは鈍い。

そうした状況の中で、AIに対する規制が世界的に取り上げられようとしているのは、対象が人間ではなく機械、しかも「人口知能」という目新しい存在だからだといえる。

しかし、フェイクの問題は、現代社会の大きな課題であり、AIだけに限られるものではない。
むしろ意図を持ってフェイクを流し、そのフェイクを受け入れ、さらには流通させる人間の側の問題が大きい。


AIの倫理が急速に話題になってきたが、実際には、AIそのものの問題ではなく、倫理を問われるのは人間なのだ。

AIが提示する言葉や映像を私たちがどのように「読む」のか。
その読み方の「センス」が問われているのであり、AIの倫理は、結局のところ、私たち一人一人の倫理の問題へと戻ってくる。

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト /  変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト /  変更 )

%s と連携中