資格マフィア
少ないメモリ上でLLMを実行した論文が公開されたぞ
ITトレンドニュース概要
- 米 Apple 社が論文「LLM in a flash:Efficient Large Language Model Inference with Limited Memory」公開。
- メモリ容量が限られた端末上でLLMを実行するアプローチとして、この制約に合わせた推論コストモデルを開発した。
- この手法が実用化されれば、iPhoneで使えるChatGPTのようなチャットbotの提供できる可能性がある。
ITトレンド参考元
引用元:https://www.itmedia.co.jp/news/articles/2312/22/news141.html
以下、記事内容から一部抜粋。
米Appleは12月12日(現地時間)、iPhoneのようなメモリ容量の限られた端末上でLLM(大規模言語モデル)を実行するための技術に関する論文「LLM in a flash:Efficient Large Language Model Inference with Limited Memory」を公開した(リンク先はPDF)。
高性能なLLMは膨大な計算力を必要とし、基本的にクラウド上で稼働するが、Appleはユーザーのプライバシーを重視することもあり、サービスを端末側で完結させたい考えだ。
LLM in the flashの手法が実用化されれば、iPhoneで使えるChatGPTのようなチャットbotの提供が実現するかもしれない。
ChatGPTやLLMに関するスキルのための1冊
以上、LLM(大規模言語モデル)に関するニュースでした。
ITトレンドを追うために、LLMについての知識を習得するなら、以下の書籍がオススメです。
リンク
いま流行のChatGPTだけでなく、LLMの構築に用いられるLangChainについても解説されています。
また、これらを使った本番レベルのスキルを段階的に習得することができます。
ChatGPTやLLM(大規模言語モデル)の知識を習得したい方はぜひチェックしてみて下さい。
コメント