1. TOP
  2. 特集
  3. 社会を変える「ChatGPT」の可能性
  4. リスクも含むChatGPT、日々進化するテクノロジーを使いこなすための留意点とは
特集
社会を変える「ChatGPT」の可能性

リスクも含むChatGPT、日々進化するテクノロジーを使いこなすための留意点とは

健全な利活用には人間と社会のバージョンアップが必要

さまざまなオーダーに対し、あたかも人間のような言い回しで回答する対話型AI「ChatGPT」。その概要については特集1回目で紹介した。2回目となる本稿では、自然言語処理や人工知能について研究する東北大学大学院の乾健太郎教授に、ChatGPTがもたらす社会的影響や課題などについて話を聞いた。

ChatGPTの普及で広がった“試行錯誤の民主化”

さまざまな質問に答えるだけでなく、プログラミング生成や翻訳などが可能なChatGPT。2022年11月のローンチから約2カ月で1億人のアクティブユーザーを抱えるなど、熱狂とも言えるほど、グローバルで話題となった。一方で、ChatGPTが抱えるリスクについても、さまざまな議論・報道があふれている。

その一例を挙げてみると、ユーザーのリクエストに対して事実ではない情報を伝える「誤情報問題」や、悪意あるユーザーが誤った学習データを入力する「敵対的な攻撃」といったセキュリティーの問題、差別やバイアスを含んだ回答を行う「倫理面での課題」などだ。しかしこれらの動きについて、乾教授は「ChatGPT固有の問題というよりも、もっと大きな枠組みの中で捉えるべき」と語る。

というのも、そもそも、要約や推敲(すいこう)、翻訳、対話といったタスクがこなせるAIは多々発表されており、サービス展開も広がっている。その進化はこの2~3年で急速に進んでおり、ChatGPTはあくまでその一つのモデルにすぎないからだ。

「さまざまなタスクを可能にするChatGPTの出現によってあらゆるサービス提供者が対話型AIを使えるようになったこと自体が重要で、それこそがイノベーションです。サービス提供者も、そのサービスを利用しようとする社会も試行錯誤の日々が続くでしょう」

生成AIの研究は日々進められており、上記に挙げたようなリスクは数年以内に解消される可能性もある。「ですので、短期的なリスクと長期的なリスクを分けて考える必要があるのではないでしょうか」と乾教授は指摘する。

ChatGPTのリスクを把握したうえで、利用する

長期的視点を前提とした場合、対話型AI、とりわけChatGPTで懸念される事柄を挙げるとするならば、やはり誤情報、情報操作などだろう。ただ、それも時間が解決するケースも考えられるという。

例えばユーザーがオーダーしたことに対し、ChatGPTが作成してきた文章が過去に誰かによって書かれたものを一部修飾したものなら、引用元が見えない仕様はリスクの一つだ。著作権者からすれば自分のデータや紡ぎ出した文言がいつどこで使われているか分からず、著作権侵害のような思いを抱いてしまう。一方で情報を受け取る側はエビデンスを取ることが難しい。

この問題についてはさまざまなAIやテクノロジーの開発側も意識しており、出典元を付記するサービスも出てきている。出典/引用元を明らかにする技術は今後もどんどん出てくるはずで、どこかの時点で部分的には解決するというのが乾教授の見立てだ。

一方で、中長期的なリスクとして乾教授が挙げたのが、誤情報やバイアスを含む回答をしてしまうこと。技術的に誤情報を減らすことはできるが、誤情報がないという保証や定義は難しい。

「加えて、誤情報やバイアスの原因はChatGPTが学習している元データにあります。時代に合わない価値観に基づいたデータ、ある時期まではそれが真実だと思われていたデータを学習すれば、それに近しい結果を回答してしまうのです。AIが社会の鏡といわれるゆえんはここにあるのです」

全くあり得ないようなデマを回答する問題については、解決の可能性があるという。というのも、ChatGPTが誤情報を回答するときは、回答に関するデータを持ち合わせていないケースが多い。

「まだ研究課題の状態でありますが、『どこにも書いていない情報であると計算する仕組み』が構築されれば、技術的には解決が考えられるかもしれません」

ChatGPTをはじめとする対話型AIを活用するためのリテラシーが求められる(写真はイメージ)

悪用リスクを減らすルールづくりが不可欠

日本においても「食べログ」や「Expedia」などが一般ユーザー向けにChatGPTプラグインを活用する事例が広がってきている。

産業活用では、新たなビジネスモデルの創出や業務の効率化が期待される一方、個人情報などの機密性の高い情報の漏えいを危惧する声もある。それについて、乾教授は「一昔前に、位置情報サービスやGmailが誕生したときと同じような状況だ」と指摘する。

確かにそれらのサービスが始まった際、個人が特定される形で情報の活用・漏えいという危機感が広がったが、多くのユーザーはリスクよりベネフィットを取った。サービス提供側もリスクを減らす努力を重ね、今では多くの人が活用するサービスとなっている。

「それでも医療データなど、非常に機密性の高い情報を取り扱うような企業であれば、その業界に特化したモデルが構築され、オンプレミス(自社運用)の安全な環境をつくる。そういったことが可能になれば、情報を守れる可能性が高まります。それはもしかしたら今後の標準的なAIの使い方になっていくかもしれません」

自然言語処理、計算言語学などを専門とする東北大学大学院の乾教授

産業活用については個人利用と同じようなリスクが懸念されているが、乾教授は「ChatGPTへの過大評価も過小評価も建設的ではないと感じる」と話す。

「過度に恐れるあまりに制限をかけ過ぎると、知識の利活用能力が弱い社会になってしまうかもしれません。だからといって、人々がAIの回答のエビデンスを取らずにうのみにする、ある種の依存のような傾向が強まれば、今度は情報操作に弱い社会になってしまう。悪用の方が簡単で、それに対抗する社会的なコストがかかるという風潮は健全ではないと思います」

AIの知識源となるデータに潜む「誤情報」と「情報バイアスを」を見極めることが、悪用リスクの軽減につながる。ただし、ビジネス・アカデミアを含むさまざまな業界、各領域には膨大なデータが蓄積されているため、人間がそれらを精査することは実質的に不可能だ。

「ですので、リスクヘッジには技術発展や、使う側のリテラシー向上や意識醸成、教育、そしてなによりリスクを個人に押し付けないよう、社会のルール形成や仕組みづくりを並行していくことが重要です。例えば、自動車が発明され、現代のような車社会が形成されたのも、免許制や交通規則などの厳しいルールが敷かれたから。AIに関しても、技術を使ったイノベーションを起こしていくには、リスクを個人や企業に負わせるのではなく、試行錯誤のすえに形になった技術を安全に使えるためのルールを発展させていかなければなりません」

自律分散のノウハウが、さらなる発展を生む

ChatGPTに限らずAIを取り巻く現況は、多種多様な人が自律分散的に知恵を出し合っている状態だ。これはデメリットではなく、乾教授は「そこにこそ大きな未来がある」と期待をにじませる。

イギリスが産業革命を成し遂げられたのは、「技術の進歩」「事業拡大や投資」「技能・才能の有効利用」の3条件がそろったからだといわれている。その上で自律分散的に、持続的にさまざまな試行錯誤が重ねられた。AIを取り巻く状況も、全産業において産業革命のような大がかりなイノベーションが起こりつつあるという。

生成AIにより、これまで文書やデータの中に埋もれていた知識をスケールして共有できるようになっただけでなく、抽象的な知識を抽出し共有できるミドルウエアや基盤がいくつも登場し、「知識の流通革命」が起こっているという。試行錯誤が続くAIだが、技術革新が進めばさらに楽しみ方や活用は広がるはずだ。

それは同時に社会が変わり続けていく必要があることも意味する。AIの進化に対応するためには、社会の仕組みを変え、人間もバージョンアップをし続けなければならない。そのうえでテクノロジーにのみ込まれるのではなく、使いこなすためにはどうすればいいのか。

「抽象的ではありますが、クリティカルシンキングを身に付けることではないでしょうか。物事を偏りなく、一段高いところから俯瞰して見る能力を育むことに尽きます」と乾教授は述べる。

AIを取り巻く技術はすさまじいスピードで進化している。技術が正しく活用される社会を目指すために、時には、一歩引いたところからその進化の方向性やルールなどを検証する必要がありそうだ。

この記事が気に入ったら
いいね!しよう

Twitterでフォローしよう

この記事をシェア

  • Facebook
  • Twitter
  • はてぶ!
  • LINE
  1. TOP
  2. 特集
  3. 社会を変える「ChatGPT」の可能性
  4. リスクも含むChatGPT、日々進化するテクノロジーを使いこなすための留意点とは