最近、本当にいろんなところで「ChatGPTすげー」とか「AIで世界が変わる」とかいう言葉を耳にします。だけど、何となく、本質からずれての評価にしか思えないのは私だけでしょうか?雰囲気や表層だけでみんな「すごいんです!」って言ってないです?
ってなわけで、ちょっとだけAIとChatGPTについて書いてみたいと思います。
例によって、私の知識ベースでのお話となります。
もしかすると間違いとかあるかもしれませんのでご指摘頂ければ幸いです。また、わかりやすさを優先して書きますので、全体的に「ザックリ」です。その点はご容赦くださいませ。
AIって何よ?
まず、「AIって何よ?」というところから。
AI、日本語では「人工知能」と呼ばれます。
AIの歴史は実はかなり古くて、1950年代中盤には「Artificial Intelligence」という言葉が生まれています。人工知能向けのプログラミング言語である「LISP」が開発されたのもこの頃です。
ザックリ言えば「コンピュータに何かを考えさせて答えを導いてもらうシステム」です。
私はどちらかといえば「人間の様々なことを”補完”してくれるもの」という認識です。
AIを使うといろんなことが出来る、と言われています。
自動運転もAIを使った技術ですし、画像生成AIなどもちょっと前から盛んですね。
AIの基本的な技術を雑に・・・
AIの基本的な技術は「統計」と「分析」、そして「蓄積」の3つだと思ってください。
※実際はこれらに更にいくつかの要素が加わったりしますが、今はこれだけ覚えてください。
画像生成AIで言えば、いろんな「イラスト」や「絵」の情報を読み込ませて「分析」し、絵の傾向を「統計化」して「蓄積」していきます。
画像生成AIに対して何か指示を出すと、その指示を「分析」し、「蓄積」された情報の中から「分析した」結果に近いものを探し出して、組み合わせて、回答に近いものを生成します。
ChatGPTについても同様で、こちらは「文章」「プログラム」などの「文字データ」を読み込ませて「分析」、「統計化」して「蓄積」します。
入力された質問についても「分析」を行い、分析した結果と「蓄積」されたデータを照合し、組み合わせて回答に近いものを生成します。
つまり、AIがやってることは、与えられた「何か」を「分析」し、「統計化」して「蓄積」していくことと、与えられた質問を「分析」し、「蓄積」されたデータから質問の答えになりそうな何かを探し出して組み合わせて、回答に近いものを生成する、ということです。
自動運転もほぼ同様で、道路や障害物の情報を与えて「分析」させ、「統計化」して「蓄積」させます。車はカメラやセンサーを使って、道路や障害物を捉え、それが「人」なのか「車」なのか、何なのかを「分析」し、「蓄積」したデータから「何か」を判断した上で車を制御します。
AIにとって大切なこと
勘のいい方は気付いたかも知れませんが、AIにとってとても大切なのは、結論を導くために必要な「統計データ」の「蓄積」であり、「統計データ」を作るために最初に与える「情報」です。
この「情報」によって「画像生成AI」であったり、「文章生成AI」であったり、「自動運転AI」であったり、様々な形に変容します。
※実際はそれぞれの用途によって、分析や統計のアルゴリズムが変わるので、こんなに簡単な話ではないです。
つまり、「何を喰わせるか」によって、AIが出す答えはどうにでも変わる可能性があります。
また、喰わせていない情報については正しい答えを導くことは出来ません。
ChatGPTで嘘の回答が多いと言われる理由はこういうことですね。事前に与えられてない事柄について尋ねられても蓄積がないので回答が出来ず、似たような言葉で蓄積されていることを適当に繋げて回答しているわけです。
今、いろんな国が「ChatGPTに対する規制」を入れている理由はここにもあります。
偏った情報をChatGPTに喰わせていくことで、回答が偏っていく可能性が高く、世論誘導が可能になる可能性が高い、というのが理由の一つに挙げられると思います。
※実際、数年前にMicrosoftがリリースしたTwitter上での人工知能が、偏った情報ばかり与えられた結果、かなり不適切な発言しかしなくなった、という例も・・・
AIもchatGPTも単なるツールに過ぎず、使う人次第
なので、AIは「所詮、人が与えた情報を元にしか動くことが出来ない」反面、「与えられた情報によっては社会に大きな影響を与えかねない」わけです。
私自身はAI自体は脅威とは思わないけど、「AIに情報を喰わせる人たち」次第でどうにでも変わるので、その点ではすごく恐いと思っています。
ChatGPTについても、便利に使わせてもらっています。
プログラマとかに「ChatGPT使わない奴はこれから仕事なくなるよ」みたいな煽りコメントをたまに見かけるのですが、まあ、そういうこともないでしょう。
単純に「効率」と「精度」の問題ですが、ChatGPTはまだまだ信頼性が低いので・・・それにChatGPTよりも精度のいいプログラムを効率よく書けるプログラマは少なくないです。
所詮、AIもツールの1つに過ぎず、そのツールを我々がどう使うか次第。
恐がらずに触ってみて、使える、と思ったら使えばいいし、無理と思ったら使わなければいいだけです。
積極的に使いましょう、とも言わないですが、とりあえずどんなもんか触ってみてから判断してもいいかな、と思います。
あ、サイトに掲載する商品の説明文なんかは結構よい精度で作ってくれたりしますよ。まあ、その文章の内容が正しいかどうかの判断は出来ないとマズいですが・・・結局は人間の力が必要なんですよね、AIと言えど。
最短距離でゼロからしっかり学ぶ Python入門 必修編 〜プログラミングの基礎からエラー処理、テストコード…