最近、ブログ界隈ではChatGPTを使ってブログを書くという流れが起こりつつあります。
ChatGPTを使うことで、記事作成における大量の手間と時間を削減でき、より良質な記事を量産できるのだとか。
まず最初に言っておくことは、ぼくはこれまでも、そしてこれからもChatGPTを使って記事を書くことはしません。
それは、単純な理由としてはそんなことをしてブログを書いたところで面白くないというものと、ChatGPT…ひいてはAIによる生成物への懸念があるからです。
ぼくは前職で少しばかりAIについて触れたことがあります。そのとき学んだことから、AIで作成されるものとはどのようなものなのかを少しだけ理解しているつもり。だから、AIで作ったものについて懸念があります。
この記事では、ぼくが考えるChatGPTに対する懸念について解説します。また、少しだけAIについても解説を加えて、どうして懸念しているのかも含めて紹介します。
まず、そもそもChatGPTについて、簡単におさらいしていきます。
ChatGPTとは?
ChatGPTの紹介については↓に引用させていただきます。
ChatGPTは、ユーザーが入力した質問に対し、人間と会話しているように自然な対話形式で回答してくれます。インターネット上の膨大な情報を学習しているため、レシピからおすすめのホテル、小説や企画書の作成、プログラミングなど幅広いジャンルに対応可能です。
引用元:ChatGPT(チャットGPT)とは?料金や始め方、上手に使うコツを紹介
ここで説明では『インターネット上の膨大な情報』となっています。ChatGPTとは、インターネット上にある情報を参照しているということ。つまり、インターネット上に多くある情報を優先的に学習し、それを答えとして出力します。
ここにもう、ぼくが懸念している点があります。
それは、数が多い情報は出力され、数が少ない情報は出力されないという懸念です。
情報が多いから正しい 少ないから間違い

AIというのは、極端に言ってしまえばパターンで答えるだけの代物。少なくとも現代のAIはそのようなものです。
パターンが多いものを『それらしい』として出力し、少ないものは『それらしくない』として出力されない。AIは多数決原理です。多いことが答えとして『正しい』。
ここで問題なのは、パターンが多いからといって、それが道徳的・論理的に正しいとは限らないということ。AIの答えが、必ずしも正しいとは言えないのです。
もしインターネット上に戦争について、戦争をすることは正しい・推奨するという意見が戦争に反対する意見を上回れば、AIは数が多いほうの意見を『それらしい』と学習します。
誤った情報が世間に流布し、正しい情報がその誤った情報に埋もれてしまえば、AIは誤った情報を答えとして出力することになる。そのリスクがAIにはあります。
AIは概念を理解できない

どうしてそのようなことになってしまうかというと、そもそもAIは概念を理解できません。
概念とは、それが何なのかということを定義・意味すること。AIは、意味を理解しないで答えを出しています。
例えば、画像認識AIで考えてみます。
最近は、ネコの画像を判断させるとほぼネコと答えます。しかし、これで「AIはネコを理解している」と考えるのは間違いです。
AIが認識しているのはネコの画ではありません。その画を構成する0と1です。

そもそもパソコンやスマホなど、電子機器に描かれる画像は、全て0と1でできています。0と1がどのような並び方をしているかで色が決まり、その色の並びから人は画像の中身を認識します。
しかしAIにはそれができません。AIがネコと認識しているのは、どんな0と1の並び方をしているのか、なのです。ですから、実は画像認識AIの判断の裏側を見てみると、
- ネコの可能性90%
- 犬の可能性8%
- カラスの可能性1%
- キリンの可能性0.5%
- クジラの可能性0.5%
といった、人からみれば絶対にありえない可能性も出している場合があります(↑の例はぼくの適当に考えた例ですがそれに近い認識をしています)。この中で、ネコの可能性が一番数値的に高いから、ネコと判断している。それがAIです。
AIは概念を理解できません。戦争が何なのかを理解できません。ただ、戦争という単語があると、それと一緒にくっついている単語や文字列を学習したとおりにそれらしく並べるだけ。
概念を理解しない答えとは、時に恐ろしい答えを出しかねません。AIが出したからといって、それが道徳的・論理的に正しいとは限らないのです。
『テレビが言ってるから正しい』から進歩してない
一昔前、「テレビが言うことは正しい」という思い込みがありました。情報源としてのテレビの割合が高かったため、テレビが言うことにはみんなが従っていた時代があります。
しかし、最近はそのような風潮は廃れてきました。なぜならテレビが嘘を言っていることがバレ、それが周知されていったからです。そして代わりに台頭してきたのが、「ネットの情報は正しい」です。
ですが、それも徐々に廃りが見えています。今度は「あのインフルエンサーが、Youtuberが言うから正しい」です。そしていずれは、「AIが言うから正しい」に変わることでしょう。
こうして流れを見ていきますと、人は「○○が言うから正しい」から全然進歩していません。テレビをバカにし、ネットだけを信じるネット信者はテレビの言うことを鵜呑みにする人と何も違いません。
結局、技術は進歩しても人間は何も変わっていないというのが、皮肉にも技術の進歩のおかげでまざまざと見せつけられている気がします。
ChatGPTは過去の焼きなまし

ここまでAIについてのぼくの解釈と、懸念している危険性を述べてきました。
その上でさらにぼくのChatGPTの評価は、過去の焼きなましでしかないというものです。
少なくともぼくの目指すブロガーは、そんな記事を書くだけの姿ではありません。
過去にどんな情報がネット上にあるのか、そんなことは二の次。大事なのは、今ぼくが感じていること、考えていること、経験したこと、そしてそれらすべてを統合して導き出した自分の意見。それを発信することがぼくの目指すブロガーの姿です。
このブログで言えば、自分で実際に行い、経験したことから、平穏で困らない生活を送るためにはどうしたらいいのか。過去の誰かの経験だか知識だかを載せるだけの焼きなましに用はありません。それに、そんなことしか書かないブログでは、何の価値も無いでしょう。
最後に
ChatGPTについて、ぼくの意見を述べてきました。
「ChatGPT 危険」で検索すると様々な情報が飛び、制限すべきだという声もあります。
そもそもぼくは最初に述べたように、そんな過去の焼きなましを増やすだけのつまらない行為をしたくてブロガーになったわけではありません。誰が、どこかで既に言ったことだとしても、そんなことは関係ない。自分の経験・意見を発信する場としてブログを始めました。
だからこそ、今も楽しく、4年以上続けています。わざわざつまらない方法を取る気はありません。
以上、ChatGPTについてのぼくの懸念を述べてきました。長々とお付き合い、ありがとうございます。
それではまた。
コメント