AIを活用して「考える力」を育てる  —— 対話する技術

ChatGPT、Gemini、Claudeといった生成AIを使っていると、それぞれの個性に面白みを感じる一方で、その論理展開の精密さには驚かされる。人間を凌駕するほどの論理性を備えたこれらのツールが、極めて有用であることは疑いようもない。

しかし、その一方で危急の課題もある。
AIはこちらの問いかけの先を行く回答をスムーズに提示するため、油断するといつの間にかAIが示す方向へと、こちらの思考が引き寄せられてしまいそうになるのだ。

では、私たちはどのようにして自らの思考の主体性を保ちながら、AIの論理力を利用すればいいのか。少々矛盾するようだが、その術(すべ)をGeminiに問いかけてみた。

AIの論理の展開力は、普通の人間のレベルを超えているように思います。一般の人々が、どのように利用すれば、自分の思考を保ちながら、AIの論理展開力を利用できるでしょうか。

続きを読む

フランス人女性歌手(?)

これまで耳にしたことのなかったフランスの女性歌手を、YouTubeでたまたま聴いた。名前も経歴もよく知らないまま、ただ曲だけが流れてくる。それぞれに雰囲気があって、声の質も、歌い方も少しずつ違う。

最初に見つけたのは、Camille Brise(カミーユ・ブリーズ)。

続きを読む

AIと倫理

ChatGPTが爆発的な普及をしたために、AIの倫理が話題になっている。ところが、実際に何か問題なのかは、必ずしも明快ではない。

2023年5月に、AI開発の中心人物とされるジェフリー・ヒルトンが、AIの危険性を自由に訴えるために、Google社を退社したというニュースが流れた。
ヒルトンは、AIの危険性として、人間の制御を超えて予測不可能な振る舞いを示す可能性、人間の様々な判断において人間に取って代わる可能性、人間の雇用を奪う可能性、AIによって作り出される情報や画像の真実性とフェイクの区別の困難さなどをあげ、「社会と人類に深刻なリスクをもたらす」可能性があるとし「AIを制御できる方法を見つけるまで技術を拡大させるべきではない」と指摘した。

この主張は、2023年3月「AIを制御できる方法」を模索するために半年間の開発中止の訴えを行ったイーロン・マスクたちの発想と軌を一にしている。
ただし、マスクはその1ヶ月後には、巨額の予算を投入してAI開発のための会社を立ち上げた。
そのことは、2000人以上の署名を集めた公開書簡の意図が、「社会や人類に深刻なリスク」を検討するためではなく、「半年間の開発中止」だったことを明らかにしている。

AIの倫理を考える際に、ジャフリー・ヒルトンとイーロン・マスクの例をあげたのは、同様の言葉を前にして、どのように読み取るかは私たち一人一人にかかっているということを示すためである。

続きを読む