Nishika AI News Letter - Issue #34
Perplexity AI, Elicit, Bard, LangChain … 見事にChatGPTに関連する対話型AIの記事ばかりになってしまいました。東京海上日動さんのニュースを引き合いに出してしまいましたが、AI活用事例を見ていても「ChatGPT-likeな技術を活用すればもう一歩いけるのでは?」という目線で見てしまいます。
ChatGPTだけでは「面白いツール」止まりでビジネスへの活用可能性は疑問でしたが、LangChainを活用することでその道が開けそうな予感もあります。当社も含めてAI開発者がPoCを重ねていかなければいけないところです。
Application
ChatGPTと同様の対話式AIだが、こちらは回答について情報ソースも併せて提示してくれる。ChatGPTは情報ソースは示さず、実際に誤った情報も多く返してくることが報告されているが、その弱点を補う。
一方で「情報ソースを示す」という制約を自身に課しているが故に対応可能な質問の範囲が狭い欠点もあるが、Perplexityから返ってきた情報ソースを辿ってさらに深掘りしたい、という人からするとこちらの方が使い勝手が良い、という意見も。Google検索の代替となり得るのはこちらかも。
検索対象を学術論文に限定した対話型AI。体験は検索に近く、当然情報ソースを明示してくれるので論文を探索したいのであればこちら。見つかった論文に対して追加で質問することもできる。
ChatGPTに対抗も誤り多数で大暴落、グーグルのチャットAI「Bard」は何が違うのか?
GoogleがChatGPTに対抗してリリースを発表したAI「Bard」にて、回答の誤りが多く指摘されたことでアルファベットの時価総額が暴落したとのニュース。
ここで指摘したいことは技術的な観点ではなく、ChatGPTでも容易に観測される現象が「今更」指摘され、株価の暴落(の一因)につながった事実。実際に使ってみたこともない人が多く存在し、株価を大きく増減させている事実はなかなか恐ろしい。
自動車事故による保険金支払い業務で、当事者との交渉が難航しそうなケースを予測する仕組み。交渉の難易度をパーセントで表示する他、その理由も付加。
本ニュースを取り上げたのは、本ニュース自体に注目したいというより、敢えて対話型AIのニュースと対照的に比較するためです。対話型AIがこれだけ注目されている中では、「どうやって交渉すれば良いかまで提示して欲しい」という期待値が世間全般であるはずです。この後ご紹介するLangChainなどの技術を活用して期待に応えられるのか、それともまだ応えられないのか、AI開発者は最先端技術のPoCを重ね早急に答えを出さなければいけないと思います。
Technology
大規模言語モデルと外部リソースとを融合させたアプリケーションを作ろう-langchainのご紹介-
ChatGPTは2021年以前のデータによって学習されており、最新のニュースをupdateして回答して欲しいと思うことがあったり、そもそもChatGPTが学習し得ない社内文書なども検索対象に含めて回答してほしい、と思うことがあるはず。
この問題解決のために必要な外部リソースの選択・結果観察を繰り返して最終結果を得る仕組みがAction-Driven LLMとして注目されており、Action-Driven LLMの開発のため、LangChainというライブラリが公開されている。
LangChainが使用されているプロジェクトとして、その名もDocsGPTというものがある。任意の外部文書について、質問するとその内容に基づいて答えと解説が得られることを目指している。
Editor Picks
Google Brain等に所属した人工知能研究者で、OpenAI日本担当に新たに就任したシェイン・グウ氏と落合陽一氏の対談。
動画中盤の「これまでの時代のリーダーはアルゴリズム・深層学習研究者やアーキテクチャ・スケーリングの研究者だが、大規模言語モデルの登場後のリーダーはアプリケーションエンジニア・ビジネスディベロッパー・UXデザイナー等になる」という主張がとても刺さりました。
ごく一部の最先端AIを開発する企業が次々と提供するAIを使って、如何に体験価値を生むサービスを企画・設計・開発していくか、がより重要性を増していると感じます。
対話式のAI サイバー犯罪に悪用のおそれ ウイルスも作成可能
ChatGPTをはじめとする対話型AIがサイバー犯罪に利用される懸念があるという話。フィッシングメールの文面を作成してくれる事例などが紹介されている。
全ての道具は使い手次第で良い用途にも悪い用途にもなるものですが、対話型AI(特にChatGPT)は一見して非常に自然な文章を生成してくるため、リテラシの低い人は容易に騙されてしまうことがリスクです。「如何にも相手が信じてしまいそうなXXXの文章を生成してください」というプロンプトを与えて使う、というのが最も性質の悪い使い方のように思います。