┏━━━━━━━━━━━━━━━━━┓
◇ 医師ジョブマガジン 2023.06.13号 ◇
┗━━━━━━━━━━━━━━━━━┛
2022年から話題となっている「チャット形式の対話型AI」。
近頃は各界隈・企業が、なんらかの活用方法がないか、と模索する姿も見かけます。
さて、対話型AIはその名の通り「対話するような形で回答ができるAI」です。
今まで一番知名度のあった対話型AIは、スマートフォンなどに搭載されている音声対話型AIでしょう。
一方で話題になっているチャット形式の対話型AIは、話し言葉の入力テキスト(質問)に対し、機械学習などを通じて自動生成された流暢なテキストによる回答が特長です。
このAIの活用が謳われている一番の要因は、テキストを短時間で自動生成してくれる点から業務の時間短縮につながると期待されているためです。
では、医療現場において、このAIが活用できるでしょうか。
そもそも活用の仕方は?というと、今はまだ手探りの状態です。
とりあえずインターネット上を検索してみると、文章の生成、Excelの関数の添削、外国語の翻訳、誤字脱字のチェックなどで多く利用されているようです。
とはいえ、チャット形式の対話型AIに問題がないわけではありません。
一番のデメリットといえば、「ウソをつくことがある」という点でしょう。
理由としては以下の三点が挙げられます。
・機械学習の過程でどうしても真実性の低い情報が混ざる
・そのAI自身が情報の真実性を判断できない(判断する仕組みが実装されていない)
・入力テキストが曖昧な表現の場合、勝手に内容を判断して出力テキストを生成する
ということは、先述の活用方法がすべて正しい使い方かというと、少し違うかもしれませんね。
また、質問された情報が専門的であればあるほど、答えに嘘が混ざりやすいようです。
これは、学習情報元の量不足が一因だそうです。
他にも、個人情報を含むテキストの入力による個人情報漏洩の危険性や、2021年以降の情報の学習がされていない点なども問題点として挙げられています。
つまり、現状では、以下の点に気を付ける必要がありそうです。
・出力テキストには最新の情報や正しい情報が含まれていない可能性が高い
・質問を入力する際、入力したテキストの情報が万が一知られても構わないものかを確認する
・専門的な情報を知る人間による「出力テキストにミスがないか」の最終確認が必須
ということで、結論としては「医療への活用に関してはしばらく様子見が妥当」のようです。
また論文などへの活用は、既に禁止されているところもありますので、そういった目的での利用も控えた方が良いでしょう。
ただし、一点気を付けていただきたいのは、チャット形式の対話型AIが必ずしも悪いものではないという点です。
こういったものは利用する人間次第ですので、AI黎明期だからこそ、活用方法・ルール策定などの検討は慎重に行うべきだと言えます。
※このコラムは2023年6月に配信した記事です