ChatGPTがとっても気の利く優しいAIだという事が46秒で理解できる動画

ChatGPTのやさしさ動画

 

私は何をやっているのか?

わざと固有名詞を間違えてみました。

ビリヤニ → ビリヤリ

バスマティ米 → バスマテ米

ビリヤニ(カルディで買ったビリヤニセット)
ビリヤニ

そして単語を間違えたまま質問をします。

結果どうなったかというと動画をご覧になると(文字ぼんやりしててごめんなさい)お分かりになりますが、ChatGPTは全部私の間違えを上手く理解して正しい答えを返してくれています。

あえて間違いを指摘していないのが特徴的です。

タイプミスにすぎないのかな?と思われる部分は何も言わずに説明を続けるようになっています。

 

ChatGPTが間違えているわけではないケースも多々あるかも?

AIが間違えているという結論に到達するのはもしかしたらそういうこともあるかもしれません。

例えば先のビリヤリに関してもGoogleで検索すると数件確かに出てきます。

もしインドの方が日本でビリヤニ料理を提供開始した時、日本語のカタカナ表記に置き換える際に元の発音から考えてビリヤリでも良い、その方がご自身で発音される時の音に近いと感じた方がおられるのかもしれません。

そのお店ではMENUにビリヤリと書いてあればそれはビリヤニでありビリヤリでありどちらかが間違っててどちらかが正しいというものでもないかもしれないですよね。

ビリヤニを初めて食する人が最初にそのMENUを見て食事されたら当然ビリヤリと表現することになり、それもまた正しい表記なわけです。

似た様な話じゃないかもしれませんが昔アガサ・クリスティーという作家がおられましたが彼女の名前もまた古い本だとアガサ・クリスチーと書かれてた気がします。

あの、丸ノ内ビルヂングという表記も当時の日本の方々からするとその書き方が一番英語の発音に近いと感じられたのかもわかりませんし。

一方でバスマティ米はバスマテ米が単なるタイプミスか何かだと思われたのかバスマティ米と書き換えられて説明が並んでいます。

この人間違えたんだ?と思った、いえ正確には判定されたのかもしれません。

 

人間の間違いをわざわざ指摘しない

バスマティ米の様にそっと言い換えてくれるあたりはまるで面倒な部長さんと話してる会話の上手い女性みたいです。

変に相手の間違えを指摘して気分を害するのではなく、タイプミスかもしれないしそこは指摘しないでそっと置き換えて説明してくれてるわけです。

このAIはなかなか優しくて優秀な人が構築してるなと思いました