Nishika AI News Letter - Issue #39
新しい技術にワクワクさせられる側面、早いトレンドに乗り切れない現実を見せられる側面、両方が見えたここ2週間でした。
自律型ChatGPTであるAutoGPTは、実用性はこれからですが勝手にAIがタスクをこなしている様は未来を感じさせます。
より実用的な意味で注目はRMTで、GPT-4の数十倍のトークン数を記憶できるという、実務でマニュアル文書などを読ませたい用途等を鑑みて要注目の発表。
一方で、Stability AIの発表したStableLMは性能はChatGPTに遠く及ばないように見え、先日の資金難のニュースも相まって優勝劣敗がはっきりしてきているのか、と推測されてしまいます。
Promotion
ChatGPTの使い方について、とても追いきれないほどの速さで日々報告がされる中、結局ビジネスで使える使い方は何なのか?とお考えの企業の皆様向けに、ChatGPT研修を提供することとしました!
ChatGPTの基本原理から、有用性だけではなく把握しておくべき危険性、業務で効果を生み出す活用方法までお伝えした上で、ワークショップ形式でお客様自身にとって有益なChatGPTの使い方を編み出すプログラムです。
弊社が実際に日々行なっている活用方法をお伝えしたり、コンペを通じて蓄積した危険性に関する知見をお伝えするなど、弊社独自の実践的コンテンツとなっております。
ご関心あれば、是非お声がけください!
AI News Letterでは各社の提供する最先端AIをご紹介し続けていますが、News Letter中でも何度か取り上げている、音声認識AI OpenAI Whisperを搭載したソフトウェア “SecureMemo” をリリースいたしました!
Whisperを搭載・チューニングし、名実ともに世界最高水準の精度を示しながら、オンプレミス・オフライン環境で利用可能でありセキュアな用途に有用な点が特徴です。
Application
ChatGPTは人間が与えた指示に対してリアクションするものだが、AutoGPTは自律的にタスクをこなしていく機能を与えたもの。非エンジニア向けに簡単な操作でAutoGPTを開発できるAgentGPTも公開されている。
人間が決めるべきことは、Agentの名前と達成したいゴールのみ。あとは自動でタスクを生成しタスクの消化・改善まで行ってくれる。今のところ実用性はそこまで感じないが、GPTが自律的に動いてタスクをこなしている(ように見える)様を見ると、自分の代わりに仕事をこなしてくれる日もそう遠くはないか、と何とも言えない気持ちになります。
パナソニックHDが、社員が利用するChatGPT環境を構築。セキュリティ対策として利用ルールを整えると同時に、入力データの利用範囲が限定されるAzure APIを利用するなどされている。さらに、企業向け用途を考えた「プリセットのプロンプトの用意」、英語で聞く方が質の高い解答が得られるケースがあるため「英翻訳する自動翻訳機能」、社内のフィードバックに活用する目的で「AIの回答を5段階で評価する機能」といった、社内用途によく考えられた機能が盛り沢山。
Bark | transformer-based text-to-audio model
プロンプトから声や歌、効果音、ノイズなど様々な音声を生成可能なTransformerベースのAI。日本語にも対応しており、比較的違和感のない音声が生成できている。
2023年に急増の可能性。「ChatGPTシステム攻撃」とは? セキュリティー専門家が警鐘を鳴らす
プロンプトインジェクションという、ChatGPTを使ったアプリに対して、中で設定されているプロンプトを盗み出すようなプロンプトを投げかける攻撃について。対策としては大きく2つ、「プロンプトにはプロンプトで対抗する(「⚪︎⚪︎は秘密」など)」「プロンプトとは別に防御の仕掛けを入れ込む(ChatGPTの出力をチェックする)」だが、私見では確実性の高い後者が有力と思います。
AIの導入で3割の原画マンを解雇、一方残りの中堅以上は昇給=中国のゲーム会社、イラストAIにより人員が剰余
中国のゲーム会社にて、画像生成AIの導入を受けて、四半期のみで約3割のイラストレーターが解雇されたとのこと。日本では解雇規制もありここまでドラスティックなニュースは聞かれませんが、純粋に業務効率だけを見ればこのような動きになる、という事実。
Technology
Scaling Transformer to 1M tokens and beyond with RMT
Recurrent Memory Transformerという手法を用いて高い記憶検索精度を維持しながら、モデルの有効コンテキスト長を204万トークンに増やすことに成功。GPT-4が扱えるのが最大3.2万トークン(2.5万単語)ほどで、その数十倍。社内マニュアルなどを読ませようと思うと、トークン数の制限があって分割する必要があったが、RMTが実用的になればそれも不要になる。これで十分な精度が担保できていれば、また世界が変わる。
AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models
LLMの性能を測るためのベンチマークとして、大学入試や数学コンテストなど20のテストからなるAGIEvalを提案。GPT-4がSATや数学コンテストにおいて人間の平均的なスコアを上回る一方、特定のドメイン知識を必要とするテストにおいてはスコアが落ちていた。
Stability AI、大規模言語モデル「StableLM」を発表
Stable Diffusionを提供するStability AIが、かねてから予告していた通り大規模言語モデルStableLMを提供開始。記事中のリンクからHuggingFace上で試すことができる。
しかし、触ってみた感じ日本語はもちろん、英語でもChatGPTとは性能が雲泥の差に見える。先日の資金難のニュースもあり、十分な性能となってからリリースするという余裕がないのか、と邪推してしまう。。。
Editor Picks
培養脳細胞で「ChatGPTを超える」AI開発 豪スタートアップが13億円調達
培養した人間の脳細胞とコンピューターチップを組み合わせたAI。ヒト幹細胞由来の脳細胞を微小電極アレイ上で培養してつくったディッシュブレインが、電気信号によるフィードバックを重ねることでアタリのピンポンゲーム「ポン」の遊び方を習得したとのこと。ChatGPTのようなデジタルAI技術に比べて必要なエネルギーが少ないとのこと。ChatGPTを稼働させるのにかかっている電力量は莫大なので、価値のある取り組みだが、どこまで実用性があるのか。。