Kiss my ass トランプ大統領が関税の交渉に来る他国に対して使った表現

一方的に関税を引き上げることを宣言したアメリカのトランプ大統領が、交渉を希望する他国に対して使った表現 « Kiss my ass »を、ChatGPTに様々なレベルで翻訳してもらいました。

(1)日本語に翻訳してください。

「Kiss my ass」はかなり強い口調のスラングで、日本語に訳すときには文脈に応じていくつかの言い方があります。直訳すれば:

  • **「俺の尻にキスしろ」**ですが、

これはそのまま使うと非常に露骨で、不自然です。日本語らしい言い方にすると:

  • 「ふざけんな」
  • 「バカにすんなよ」
  • 「なめんなよ」

などが一般的な意訳になります。状況に応じて、もっと柔らかくしたり、逆にもっと攻撃的にもできます。どんな場面で使いたいですか?それに合わせて調整できますよ。

続きを読む

AI翻訳の活用法 Wikipediaの記事の翻訳

ある調査結果で、Wikipediaの信頼性は「ブリタニカ百科事典」と同等だとされたことがある。
ただし、それは英語版の調査であり、日本語のページに関しては、「秀逸」や「良質」のマークのついた記事もあるが、多くの場合、紙ベースの事典に匹敵するところまでいかないのが現実だろう。
また、外国の事象や人物の記述に関して、日本のページには項目がないものもある。
例えば、オランダの画家Jacobus Vrelについての記述は、日本版のWikipediaにはない。

そこで、英語版やフランス語版など、日本語以外の記述を参照することになる。
その際、現在では、AIの翻訳機能により、外国語を瞬時に日本語に翻訳することが可能で、理解をおおいに助けてくれる。

私の知る範囲では、ブラウザーでChromeを使っている場合、英語、ドイツ語、イタリア語などから日本語への翻訳が可能。しかし、フランス語から日本語への翻訳は、なぜかできない。

それに対して、ブラウザーでEdgeを使うと、フランス語から日本語への翻訳も可能になる。

また、フランス語→日本語の場合、翻訳が多少分かりづらく不正確なこともある。そうした場合には、多少面倒でも、ChatGPTを使い、フランス語→英語→日本語と、一度英語を通すと改善する例も見られる。

以下、WikipediaのJacobus Vrelの項目を使い、実際のところを見ていこう。

続きを読む

ChatGPTの翻訳力 

ChatGPTで翻訳を試してみたところ、あまりにも素晴らしくてビックリしてしまった。
しかも、voice control for chatGPTをインストールすれば、音声でのやり取りも可能になる。
このレベルであれば、技術翻訳としてはもう立派に通用するのではないかと思われる。

次の日本語の文章を、英語に翻訳し、次にフランス語にしてみた。

「日本の美を再発見する」
日本の伝統的な絵画では、奥行きを表現するための技法(遠近法、明暗法、等)が使われることがありませんでした。 (それらが日本に移入されたのは、18世紀半ば、つまり江戸時代中期です。)

‘Rediscovering the Beauty of Japan”
In traditional Japanese paintings, techniques such as perspective, chiaroscuro, and others used to depict depth were not commonly employed. (These techniques were introduced to Japan in the mid-18th century, specifically during the middle of the Edo period.)

“Redécouvrir la beauté du Japon”
Dans les peintures traditionnelles japonaises, les techniques telles que la perspective, le clair-obscur et autres utilisées pour représenter la profondeur n’étaient pas couramment employées. (Ces techniques ont été introduites au Japon au milieu du XVIIIe siècle, plus précisément pendant le milieu de l’époque d’Edo.)

続きを読む

AIと倫理

ChatGPTが爆発的な普及をしたために、AIの倫理が話題になっている。ところが、実際に何か問題なのかは、必ずしも明快ではない。

2023年5月に、AI開発の中心人物とされるジェフリー・ヒルトンが、AIの危険性を自由に訴えるために、Google社を退社したというニュースが流れた。
ヒルトンは、AIの危険性として、人間の制御を超えて予測不可能な振る舞いを示す可能性、人間の様々な判断において人間に取って代わる可能性、人間の雇用を奪う可能性、AIによって作り出される情報や画像の真実性とフェイクの区別の困難さなどをあげ、「社会と人類に深刻なリスクをもたらす」可能性があるとし「AIを制御できる方法を見つけるまで技術を拡大させるべきではない」と指摘した。

この主張は、2023年3月「AIを制御できる方法」を模索するために半年間の開発中止の訴えを行ったイーロン・マスクたちの発想と軌を一にしている。
ただし、マスクはその1ヶ月後には、巨額の予算を投入してAI開発のための会社を立ち上げた。
そのことは、2000人以上の署名を集めた公開書簡の意図が、「社会や人類に深刻なリスク」を検討するためではなく、「半年間の開発中止」だったことを明らかにしている。

AIの倫理を考える際に、ジャフリー・ヒルトンとイーロン・マスクの例をあげたのは、同様の言葉を前にして、どのように読み取るかは私たち一人一人にかかっているということを示すためである。

続きを読む

考える力と書くこと 2/2 AIで代用できない「この私」の思考

人口知能は、大量のデータを蓄積し、そこから最も蓋然性のある答えを導き出す。そのデータ量は人間の記憶できる量とは全く比較できないし、計算(考える)スピードも爆速であり、人間が及ぶものではない。
その視点から考えると、人口知能の方が人間の知能より優れているということになるし、実際、分野によってはすでにロボットが人間の代わりに正確でスピーディーな仕事をしているのと同様に、AIが効率的で正確に仕事をこなすようになるだろう。

しかし、それだからといって、一人一人の人間が考える必要がなくなることは決してない。
例えば、どこかに旅行に行く時、GPT Travel advisorを使えば、滞在したい「場所」と「日数」を入力するだけで、旅行の日程を作成できる。しかも、観光名所の情報が記載され、リンクが貼られ、これまで私たちが何日もかけて調べてきたことを、瞬時に提案してくれる。実際、とても便利に違いない。
だが、誰が入力しようと、同じ場所と日数をインプットする限り、同じ計画がアプトプットされる。要するに、データの最大多数の情報を基準にし、最も普遍的で一般性のある結果が出力されることになる。
従って、その結果が、一人一人の人間の趣味や興味に適合しているものではないかもしれない。

これまで私たちはガイドブックを見て、行きたい場所を選択し、自分で計画を立てたように、GPTを使ったとしても、その結果を参考にしながら、私たち自身が行く先を選択することになることは、以前と変わらない。
どこで何を見るかも、一人一人の人間によって違っている。
ルーブル美術館に行き、1時間で出てくる人間もいるし、1日では足りないと感じる人間もいる。ルーブル美術館の滞在時間は人それぞれであり、たとえGPTで、2時間、次はオルセイ美術館1時間といった計画が立てられたとしても、あくまで参考に留まるしかない。

AIに対してどのような入力をするのかにしても、出力結果をどのように活用するのかにしても、結局は、一人一人の人間が「考える」ことが必要になる。

少なくとも「私」という個人に関することに関して、AIは決して「私」の代わりに考えてくれるものではない。この世にたった一人しかいない「私」に相応しいことを考えうるのは、「私」だけなのだ。
その意味で、「考える力」を養うことは、今後とも必要であり続ける。

続きを読む

考える力と書くこと ChatGPTと人間の思考 1/2

「考える力」は、大学入試だけではなく、企業でも必要とされ、現代人にもっとも求められる能力の一つだと見なされている。
そのためなのか、ネットをググると、考える力をつけるための方法を提案するサイトが数多く出てくる。
その中には、疑問を持つことが考える力をつけるきっかけになると書きながら、その提案自体に疑問を持つことは想定せず、ハウツー本を紹介しているものまである。

大学入試で「考える力」が問われるとしたら、入試問題に正しく答えることが、その能力の証明になる。
そこで面白いのが、最近話題のChatGPT。
人口知能(AI)による自然言語処理システムだが、ある調査によると、アメリカの一つの大学の入学試験問題を回答させたところBランクで合格、医師免許試験でも弁護士資格試験でも合格の判定結果が出たという。
また、日本の大学入試共通テストの英語では、80%近い正解率が得られたという報告もある。
人口「知能」なのだから当たり前かもしれないが、AIには「考える力」があることになる。

興味深いことに、日本の教育では、ある時期、「詰め込み教育」の反動から、知識よりも考える力と言われ、「ゆとり教育」が実践された。
現在では、脱ゆとり教育という名目で、学習量の増加を図りながら、子供への負担の増加という印象を与えるのを避けるためなのか、「生きる力を育む」といった方針がとられている。
こうした変遷を通して明らかになるのは、現在の日本でも、知識と思考は対立するという意識がおぼろげにでも存在し続けていること。
例えば、「知識」と「知恵」は違うなどという表現に、「知識vs考える力」の構図が透けて見える。

ところが、AIでは膨大なデータを入力し、そこから質問の回答を導き出す。
もしデータがなければ何も出力されないし、データが少なければ不正確な回答が出てくる可能性が高い。
AIの「考える力」の根本にあるのは、データ=知識なのだ。
逆に言えば、ビックデータ(大量の知識)こそが考える力の源泉であり、知識量が増加すれば考えた結果の正確性も増す。

そうしたことを前提にしながら、最初に、考える力と知識の関係について考え、次に、データ量でははるかに劣る人間が書くことによって思考力を高められるのではないか、といったことを考えてみよう。

続きを読む