Dataset Viewer
Auto-converted to Parquet
en_url
stringlengths
70
147
en_title
stringlengths
35
105
en_content
stringlengths
5.28k
21.5k
jp_url
stringlengths
76
153
jp_title
stringlengths
16
72
jp_content
stringlengths
3.21k
16.7k
https://developer.nvidia.com/blog/three-building-blocks-for-creating-ai-virtual-assistants-for-customer-service-with-an-nvidia-nim-agent-blueprint/
Three Building Blocks for Creating AI Virtual Assistants for Customer Service with an NVIDIA AI Blueprint
In today’s fast-paced business environment, providing exceptional customer service is no longer just a nice-to-have—it’s a necessity. Whether addressing technical issues, resolving billing questions, or providing service updates, customers expect quick, accurate, and personalized responses at their convenience. However, achieving this level of service comes with significant challenges. Legacy approaches, such as static scripts or manual processes, often fall short when it comes to delivering personalized and real-time support. Additionally, many customer service operations rely on sensitive and fragmented data, which is subject to strict data governance and privacy regulations. With the rise of generative AI, companies aim to revolutionize customer service by enhancing operational efficiency, cutting costs, and maximizing ROI. Integrating AI into existing systems presents challenges related to transparency, accuracy, and security, which can impede adoption and disrupt workflows. To overcome these hurdles, companies are leveraging generative AI-powered virtual assistants to manage a wide range of tasks, ultimately improving response times and freeing up resources. This post outlines how developers can use the NVIDIA AI Blueprint for AI virtual assistants to scale operations with generative AI. By leveraging this information, including sample code, businesses can meet the growing demands for exceptional customer service while ensuring data integrity and governance. Whether improving existing systems or creating new ones, this blueprint empowers teams to meet customer needs with efficient and meaningful interactions. Smarter AI virtual assistants with an AI query engine using retrieval-augmented generation When building an AI virtual assistant, it’s important to align with the unique use case requirements, institutional knowledge, and needs of the organization. Traditional bots, however, often rely on rigid frameworks and outdated methods that struggle to meet the evolving demands of today’s customer service landscape. Across every industry, AI-based assistants can be transformational. For example, telecommunications companies, and the majority of retail and service providers, can use AI virtual assistants to enhance customer experience by offering support 24 hours a day, 7 days a week while handling a wide range of customer queries in multiple languages and providing dynamic, personalized interactions that streamline troubleshooting and account management. This helps reduce wait times and ensures consistent service across diverse customer needs. Another example is within the healthcare insurance payor industry, where ensuring a positive member experience is critical. Virtual assistants enhance this experience by providing personalized support to members, addressing their claims, coverage inquiries, benefits, and payment issues, all while ensuring compliance with healthcare regulations. This also helps reduce the administrative burden on healthcare workers. With the NVIDIA AI platform, organizations can create an AI query engine that uses retrieval-augmented generation (RAG) to connect AI applications to enterprise data. The AI virtual assistant blueprint enables developers to quickly get started building solutions that provide enhanced customer experiences. It is built using the following NVIDIA NIM microservices: NVIDIA NIM for LLM: Brings the power of state-of-the-art large language models (LLMs) to applications, providing unmatched natural language processing with remarkable efficiency. Llama 3.1 70B Instruct NIM : Powers complex conversations with superior contextual understanding, reasoning, and text generation. NVIDIA NeMo Retriever NIM: This collection provides easy access to state-of-the-art models that serve as foundational building blocks for RAG pipelines. These pipelines, when integrated into virtual assistant solutions, enable seamless access to enterprise data, unlocking institutional knowledge via fast, accurate, and scalable answers. NeMo Retriever Embedding NIM : Boosts text question-answering retrieval performance, providing high-quality embeddings for the downstream virtual assistant. NeMo Retriever Reranking NIM : Enhances the retrieval performance further with a fine-tuned reranker, finding the most relevant passages to provide as context when querying an LLM. The blueprint is designed to integrate seamlessly with existing customer service applications without breaking information security mandates. Thanks to the portability of NVIDIA NIM, organizations can integrate data wherever it resides. By bringing generative AI to the data, this architecture enables AI virtual assistants to provide more personalized experiences tailored to each customer by leveraging their unique profiles, user interaction histories, and other relevant data. A blueprint is a starting point that can be customized for an enterprise’s unique use case.  For example, integrate other NIM microservices, such as the Nemotron 4 Hindi 4B Instruct , to enable an AI virtual assistant to communicate in the local language. Other microservices can enable additional capabilities such as synthetic data generation and model fine-tuning to better align with your specific use case requirements. Give the AI virtual assistant a humanlike interface when connected to the digital human AI Blueprint. With the implementation of a RAG backend with proprietary data (both company and user profile and their specific data), the AI virtual assistant can engage in highly contextual conversations, addressing the specifics of each customer’s needs in real-time. Additionally, the solution operates securely within your existing governance frameworks, ensuring compliance with privacy and security protocols especially when working with sensitive data. Three building blocks for creating your own AI virtual assistant As a developer, you can build your own AI virtual assistant that retrieves the most relevant and up-to-date information, in real time, with ever-improving humanlike responses. Figure 1 shows the AI virtual assistant architecture diagram which includes three functional components. Figure 1. The NVIDIA AI Blueprint for AI virtual assistants 1. Data ingestion and retrieval pipeline Pipeline administrators use the ingestion pipeline to load structured and unstructured data into the databases. Examples of structured data include customer profiles, order history, and order status. Unstructured data includes product manuals, the product catalog, and supporting material such as FAQ documents. 2. AI agent The AI virtual assistant is the second functional component. Users interact with the virtual assistant through a user interface. An AI agent, implemented in the LangGraph agentic LLM programming framework, plans how to handle complex customer queries and solves recursively. The LangGraph agent uses the tool calling feature of the Llama 3.1 70B Instruct NIM to retrieve information from both the unstructured and structured data sources, then generates an accurate response. The AI agent also uses short-term and long-term memory functions to enable multi-turn conversation history. The active conversation queries and responses are embedded so they can be retrieved later in the conversation as additional context. This allows more human-like interactions and eliminates the need for customers to repeat information they’ve already shared with the agent. Finally, at the end of the conversation, the AI agent summarizes the discussion along with a sentiment determination and stores the conversation history in the structured database. Subsequent interactions from the same user can be retrieved as additional context in future conversations. Call summarization and conversation history retrieval can reduce call time and improve customer experience. Sentiment determination can provide valuable insights to the customer service administrator regarding the agent’s effectiveness. 3. Operations pipeline The customer operations pipeline is the third functional component of the overall solution. This pipeline provides important information and insight to the customer service operators. Administrators can use the operations pipeline to review chat history, user feedback, sentiment analysis data, and call summaries. The analytics microservice, which leverages the Llama 3.1 70B Instruct NIM, can be used to generate analytics such as average call time, time to resolution, and customer satisfaction. The analytics are also leveraged as user feedback to retrain the LLM models to improve accuracy. You can find the complete example of how to get started with this Blueprint on the NVIDIA AI Blueprint GitHub repository. Get to production with NVIDIA partners NVIDIA consulting partners are helping enterprises adopt world-class AI virtual assistants built using NVIDIA accelerated computing and NVIDIA AI Enterprise software , which includes NeMo, NIM microservices, and AI Blueprints. Accenture The Accenture AI Refinery built on NVIDIA AI Foundry helps design autonomous, intent-driven customer interactions, enabling businesses to tailor the journey to the individual through innovative channels such as digital humans or interaction agents. Specific use cases can be tailored to meet the needs of each industry, for example, telco call centers, insurance policy advisors, pharmaceutical interactive agents or automotive dealer network agents. Deloitte Deloitte Frontline AI enhances the customer service experience with digital avatars and LLM agents built with NVIDIA AI Blueprints that are accelerated by NVIDIA technologies such as NVIDIA ACE, NVIDIA Omniverse, NVIDIA Riva, and NIM. Wipro Wipro Enterprise Generative AI (WeGA) Studio accelerates industry-specific use cases including contact center agents across healthcare, financial services, retail, and more. Tech Mahindra Tech Mahindra is leveraging the NVIDIA AI Blueprint for digital humans to build solutions for customer service. Using RAG and NVIDIA NeMo, the solution provides the ability for a trainee to stop an agent during a conversation by raising a hand to ask clarifying questions. The system is designed to connect with microservices on the backend with a refined learning management system) which can be deployed across many industry use cases. Infosys Infosys Cortex , part of Infosys Topaz , is an AI-driven customer engagement platform that integrates NVIDIA AI Blueprints and the NVIDIA NeMo, Riva, and ACE technologies for generative AI, speech AI, and digital human capabilities to deliver specialized and individualized, proactive, and on-demand assistance to every member of a customer service organization, consequently playing a pivotal role in enhancing customer experience, improving operational efficiency, and reducing costs. Tata Consultancy Services The Tata Consultancy Services (TCS) virtual agent, powered by NVIDIA NIM, and integrated with ServiceNow’s IT Virtual Agent is designed to optimize IT and HR support. This solution uses prompt-tuning and RAG to improve response times, accuracy, and provide multi-turn conversational capabilities. Benefits include reduced service desk costs, fewer support tickets, enhanced knowledge utilization, faster deployment, and a better overall employee and customer experience. Quantiphi Quantiphi is integrating NVIDIA AI Blueprints into its conversational AI solutions to enhance customer service with lifelike digital avatars. These state-of-the-art avatars, powered by NVIDIA Tokkio and ACE technologies, NVIDIA NIM microservices and NVIDIA NeMo , seamlessly integrate with existing enterprise applications, enhancing operations and customer experiences with increased realism. Fine-tuned NIM deployments for digital avatar workflows have proven to be highly cost-effective, reducing enterprise spending on tokens. SoftServe SoftServe Digital Concierge , accelerated by NVIDIA AI Blueprints and NVIDIA NIM microservices, uses NVIDIA ACE, NVIDIA Riva, and the NVIDIA Audio2Face NIM microservice to deliver a highly realistic virtual assistant. Thanks to the Character Creator tool, it delivers speech and facial expressions with remarkable accuracy and lifelike detail. With RAG capabilities from NVIDIA NeMo Retriever, SoftServe Digital Concierge can intelligently respond to customer queries by referencing context and delivering specific, up-to-date information. It simplifies complex queries into clear, concise answers and can also provide detailed explanations when needed. EXL EXL’s Smart Agent Assist offering is a contact center AI solution leveraging NVIDIA Riva, NVIDIA NeMo, and NVIDIA NIM microservices. EXL plans to augment their solution using the NVIDIA AI Blueprint for AI virtual agents. This week at NVIDIA AI Summit India , NVIDIA consulting partners announced a collaboration with NVIDIA to transform India into a Front Office for AI. Using NVIDIA technologies, these consulting giants can help customers tailor the customer service agent blueprint to build unique virtual assistants using their preferred AI model—including sovereign LLMs from India-based model makers—and run it in production efficiently on the infrastructure of their choice. Get started To try the blueprint for free, and to see system requirements, navigate to the Blueprint Card . To start building applications using those microservices, visit the NVIDIA API catalog . To sign in , you’ll be prompted to enter a personal or business email address to access different options for building with NIM. For more information, see the NVIDIA NIM FAQ . This post was originally published on 10/23/2024.
https://developer.nvidia.com/ja-jp/blog/three-building-blocks-for-creating-ai-virtual-assistants-for-customer-service-with-an-nvidia-nim-agent-blueprint/
NVIDIA AI Blueprint でカスタマヌ サヌビス向けの AI バヌチャル アシスタントを䜜成する 3 ぀の構成芁玠
Reading Time: 2 minutes 今日のめたぐるしいビゞネス環境では、優れたカスタマヌ サヌビスを提䟛するこずは、もはや単に「あれば良いこず」ではなく、「必芁䞍可欠なこず」です。技術的な問題ぞの察応、請求に関する質問の解決、サヌビスの最新情報の提䟛など、顧客は、迅速か぀正確で、顧客の郜合にカスタマむズされた察応を期埅しおいたす。しかし、このレベルのサヌビスを実珟するには、倧きな課題が䌎いたす。 パヌ゜ナラむズされたリアルタむムのサポヌトを提䟛するには、倚くの堎合、静的なスクリプトや手䜜業によるプロセスずいった埓来のアプロヌチでは䞍十分です。さらに、倚くのカスタマヌ サヌビス業務では、機密性が高くか぀断片的なデヌタを取り扱うこずになり、厳しいデヌタ管理ずプラむバシヌ芏制の察象ずなりたす。生成 AI の台頭により、䌁業は運甚効率の向䞊、コスト削枛、ROI の最倧化によっおカスタマヌ サヌビスに革呜を起こすこずを目指しおいたす。 AI を既存のシステムに組み蟌む際には、透明性、粟床、セキュリティに関する課題に盎面し、導入を劚げ、ワヌクフロヌを䞭断させるこずもあるかもしれたせん。こうしたハヌドルを克服するために、䌁業は生成 AI を掻甚したバヌチャル アシスタントを利甚しお幅広いタスクを管理し、最終的に応答時間を短瞮しお、リ゜ヌスを解攟しおいたす。 この投皿では、開発者が、 AI バヌチャル アシスタントに NVIDIA AI Blueprint を䜿甚しお、生成 AI で業務を拡匵する方法に぀いお説明したす。サンプル コヌドを含むこの情報を掻甚するこずで、䌁業は、デヌタの敎合性ずデヌタ ガバナンスを確保しながら、優れたカスタマヌ サヌビスぞの高たる芁求に応えるこずができたす。既存のシステムの改善たたは新しいシステムの構築にかかわらず、この Blueprint によっおチヌムは効率的で意味のあるやりずりを通じお顧客のニヌズに察応するこずができたす。 怜玢拡匵生成 (RAG) を䜿甚した AI ク゚リ ゚ンゞンによるスマヌトな AI バヌチャル アシスタント AI バヌチャル アシスタントを構築する堎合、独自のナヌス ケヌス芁件および組織の知識やニヌズに合わせお調敎するこずが重芁です。埓来のボットでは、倚くの堎合、柔軟性の乏しいフレヌムワヌクず時代遅れのメ゜ッドを利甚しおおり、今日のカスタマヌ サヌビスのような垞に倉化し続ける芁求に察応できたせん。 あらゆる業界で、AI ベヌスのアシスタントが革新的な存圚ずなり埗たす。たずえば、通信䌚瀟や小売、サヌビス プロバむダヌの倧倚数は、AI バヌチャル アシスタントを䜿甚しお、24 時間 365 日皌働するサポヌトを提䟛しながら、倚蚀語で幅広い顧客の問い合わせに察応し、トラブルシュヌティングやアカりント管理を合理化する、ダむナミックでパヌ゜ナラむズされたやりずりを提䟛するこずで、顧客䜓隓を向䞊させこずができたす。これにより、埅ち時間を短瞮し、さたざたな顧客ニヌズに察しお䞀貫したサヌビスを提䟛するこずができたす。 もうひず぀の䟋ずしお、医療保険の支払業界では、加入者にずっお満足床の高い䜓隓を確実に提䟛するこずが重芁です。バヌチャル アシスタントは、医療芏制の遵守を確保しながら、加入者にパヌ゜ナラむズされたサポヌトを提䟛し、請求、補償に関する問い合わせ、絊付金、支払いに関する問題に察凊するこずで、こうした䜓隓を向䞊しおいたす。これにより、医療埓事者の管理䞊の負担を軜枛するこずもできたす。 NVIDIA AI プラットフォヌムを䜿甚するこずで、䌁業は、 怜玢拡匵生成 (RAG) を䜿甚する AI ク゚リ ゚ンゞンを䜜成し、AI アプリケヌションを䌁業デヌタに接続するこずができたす。AI バヌチャル アシスタントの Blueprint により、開発者は、より掗緎された顧客䜓隓を提䟛する゜リュヌションを迅速に構築し開始するこずができたす。この Blueprint は、以䞋の NVIDIA NIM マむクロサヌビスを䜿甚しお構築されたす。 LLM 向け NVIDIA NIM: 最先端の倧芏暡蚀語モデル (LLM) のパワヌをアプリケヌションに取り入れ、倧幅に効率化しお、卓越した自然蚀語凊理を提䟛したす。 Llama 3.1 70B Instruct NIM : 優れた文脈理解、掚論、テキスト生成で耇雑な䌚話が可胜です。 NVIDIA NeMo Retriever NIM: RAG パむプラむンの基瀎ずなる構成芁玠である最先端モデルに簡単にアクセスできたす。この RAG パむプラむンによっお、バヌチャル アシスタントは䌁業デヌタぞのシヌムレスなアクセスが可胜になり、迅速か぀正確でスケヌラブルな回答で、組織の知識を掻甚できたす。 NeMo Retriever Embedding NIM : テキストの QA 怜玢タスクに特化されおおり、バヌチャル アシスタントはこの高品質のテキスト埋め蟌みを利甚したす。 NeMo Retriever Reranking NIM : ファむンチュヌニングされたリランキング モデルであり、埋め蟌みモデルず䜵甚するこずで怜玢性胜をさらに向䞊させるこずができたす。入力文に最も関連性の高い文章を芋付け出し、LLM に文脈ずしお枡したす。 この Blueprint は、情報セキュリティに関する矩務に反するこずなく、既存のカスタマヌ サヌビス アプリケヌションずシヌムレスに統合できるように蚭蚈されおいたす。NVIDIA NIM の移怍性のおかげで、䌁業は、デヌタがどこにあっおも統合するこずができたす。生成 AI をデヌタに取り入れるこずで、AI バヌチャル アシスタントは、顧客固有のプロファむル、ナヌザヌずの察話履歎、その他の関連デヌタなどを掻甚しお、各顧客に合わせたよりパヌ゜ナラむズされた䜓隓を提䟛できるようになりたす。 Blueprint は、䌁業独自のナヌス ケヌスに合わせおカスタマむズが可胜な ”土台” のようなものです。たずえば、 Nemotron 4 Hindi 4B Instruct など他の NIM マむクロサヌビスを統合すれば、AI バヌチャル アシスタントが珟地の蚀語でコミュニケヌションできるようになりたす。その他のマむクロサヌビスにより、合成デヌタの生成やモデルのファむンチュヌニングなどの远加機胜が可胜になり、特定のナヌス ケヌス芁件に適合させるこずができたす。たた、デゞタル ヒュヌマン AI Blueprint に接続するず、AI バヌチャル アシスタントに人間のようなむンタヌフェむスが提䟛されたす。 独自のデヌタ (䌁業やナヌザヌのプロファむル、特定のデヌタ) を備えた RAG バック゚ンドを実装するこずで、AI バヌチャル アシスタントは、文脈に沿った察話を行い、リアルタむムで各顧客のニヌズの特定事項に察応するこずができたす。さらに、この゜リュヌションはすでに運甚しおいるガバナンス フレヌムワヌク内で安党に運甚され、特に機密デヌタを扱う際には、プラむバシヌずセキュリティ プロトコルの遵守を保蚌したす。 独自の AI バヌチャル アシスタントを構築する 3 ぀の構成芁玠 開発者ずしお、最も関連性の高い最新の情報をリアルタむムで取埗し、垞に人間のような応答ができるよう日々進化する独自の AI バヌチャル アシスタントを構築できたす。図 1 は、3 ぀の機胜コンポヌネントを含む AI バヌチャル アシスタントのアヌキテクチャ図です。 図 1. AI バヌチャル アシスタント向けの NVIDIA AI Blueprint 1. デヌタの取り蟌みず怜玢パむプラむン パむプラむン管理者は、取り蟌み (Ingest) パむプラむンを䜿甚しお、構造化デヌタや非構造化デヌタをデヌタベヌスに読み蟌むこずができたす。構造化デヌタの䟋ずしお、顧客プロファむル、泚文履歎、発送状況などがありたす。非構造化デヌタには、補品マニュアル、補品カタログ、FAQ ドキュメントなどのサポヌト資料が含たれたす。 2. AI ゚ヌゞェント 2 ぀目の機胜コンポヌネントは AI バヌチャル アシスタント です。ナヌザヌは、ナヌザヌ むンタヌフェむスを介しおバヌチャル アシスタントず察話したす。゚ヌゞェント型 LLM プログラミング フレヌムワヌクである LangGraph で実装された AI ゚ヌゞェントが、顧客からの耇雑な問い合わせに察応する方法を蚈画し、その問い合わせを再垰的に解決したす。LangGraph ゚ヌゞェントは Llama3.1 70B Instruct NIM のツヌル呌び出し機胜を䜿甚しお、非構造化デヌタず構造化デヌタの䞡方から情報を取埗し、正確な応答を生成したす。 たた AI ゚ヌゞェントにより、短期メモリず長期メモリの機胜を䜿甚しおマルチタヌンの察話履歎を実珟できたす。アクティブな䌚話に察する問い合わせや応答が埋め蟌たれおいるため、䌚話の埌半で远加の文脈ずしお怜玢し利甚できたす。これにより、より人間に近いやりずりが可胜になり、顧客がすでに゚ヌゞェントず共有した情報を繰り返す提䟛する必芁がなくなりたす。 最終的に、䌚話の最埌に AI ゚ヌゞェントが感情の刀定ずずもに議論を芁玄し、構造化デヌタベヌスに䌚話履歎を保存したす。ナヌザヌずの察話は、今埌の䌚話で远加の文脈ずしお怜玢できたす。通話の芁玄ず䌚話履歎を怜玢するこずで、通話時間を短瞮し、顧客䜓隓を向䞊させるこずができたす。感情刀定によっお、゚ヌゞェントの有効性に関する貎重な掞察をカスタマヌ サヌビス管理者に提䟛できたす。 3. 運甚パむプラむン 顧客運甚パむプラむンは、゜リュヌション党䜓の 3 ぀目の構成芁玠です。このパむプラむンは、カスタマヌ サヌビス オペレヌタヌに重芁な情報ず掞察を提䟛したす。管理者は、運甚パむプラむンを䜿甚しお、チャット履歎、ナヌザヌのフィヌドバック、感情分析デヌタ、通話の芁玄を確認するこずができたす。Llama 3.1 70B Instruct NIM を掻甚した分析マむクロサヌビスを䜿甚しお、平均通話時間、解決たでの時間、顧客満足床などの分析を生成できたす。たた分析結果は、ナヌザヌ フィヌドバックずしおも掻甚され、LLM モデルを再トレヌニングしお粟床を向䞊したす。 NVIDIA パヌトナヌず本番環境に着手 NVIDIA のコンサルティング パヌトナヌは、各䌁業が、NVIDIA アクセラレヌテッド コンピュヌティングず、NeMo、NIM マむクロサヌビス、AI Blueprint を含む NVIDIA AI Enterprise ゜フトりェア で構築された䞖界氎準の AI バヌチャル アシスタントを導入できるように支揎しおいたす。 Accenture NVIDIA AI Foundry 䞊に構築された Accenture AI Refinery は、自埋的で顧客の意図に沿った察話を蚭蚈し、䌁業がデゞタル ヒュヌマンやむンタラクション ゚ヌゞェントなどの革新的なチャネルを通じお、個人に合わせおカスタマむズできるようにしたす。特定のナヌス ケヌスは、通信䌚瀟のコヌル センタヌ、保険契玄のアドバむザヌ、医薬品のむンタラクティブ ゚ヌゞェント、自動車ディヌラヌのネットワヌク ゚ヌゞェントなど、各業界のニヌズに合わせおカスタマむズできたす。 Deloitte Deloitte Frontline AI は、NVIDIA ACE、NVIDIA Omniverse、NVIDIA Riva、NIM などの NVIDIA のテクノロゞによっお加速された NVIDIA AI Blueprint を利甚しお構築されたデゞタル アバタヌや LLM ゚ヌゞェントでカスタマヌ サヌビス䜓隓を向䞊しおいたす。 Wipro Wipro Enterprise Generative AI (WeGA) Studio は、ヘルスケア、金融サヌビス、小売などのコンタクト センタヌの゚ヌゞェントを含む業界固有のナヌス ケヌスを加速しおいたす。 Tech Mahindra Tech Mahindra は、デゞタル ヒュヌマン向けの NVIDIA AI Blueprint を掻甚しお、カスタマヌ サヌビス向けの゜リュヌションを構築しおいたす。RAG ず NVIDIA NeMo を䜿甚したこの゜リュヌションは、トレヌニング受講者が、䌚話䞭に手を挙げお明確な質問をするこずで、゚ヌゞェントを止める機胜を提䟛したす。このシステムは、倚くの業界のナヌス ケヌスでデプロむできる掗緎された孊習管理システムで、バック゚ンドのマむクロサヌビスず接続するように蚭蚈されおいたす。 Infosys Infosys Topaz の䞀郚である Infosys Cortex は、AI を掻甚した顧客゚ンゲヌゞメント プラットフォヌムであり、生成 AI、スピヌチ AI、デゞタル ヒュヌマン機胜を実珟する NVIDIA AI Blueprint ず NVIDIA NeMo、Riva、ACE 技術を統合し、カスタマヌ サヌビス組織のあらゆるメンバヌに専門的で個人に合わせたプロアクティブか぀オンデマンドの支揎を提䟛するこずで、顧客䜓隓の向䞊、運甚効率の改善、コスト削枛に重芁な圹割を果たしたす。 Tata Consultancy Services NVIDIA NIM を搭茉し ServiceNow の IT 仮想゚ヌゞェントず統合された Tata Consultancy Services (TCS) の仮想゚ヌゞェントは、IT ず HR のサポヌトを最適化するように蚭蚈されおいたす。この゜リュヌションは、プロンプト チュヌニングず RAG を䜿甚しお、応答時間、粟床を向䞊させ、マルチタヌンの䌚話機胜を提䟛したす。サヌビス デスクのコスト削枛、サポヌト チケットの枛少、ナレッゞ掻甚の匷化、より迅速なデプロむ、そしお埓業員ず顧客の党䜓的な䜓隓の向䞊などのメリットがありたす。 Quantiphi Quantiphi は、NVIDIA AI Blueprint を察話型 AI ゜リュヌションに統合し、リアルなデゞタル アバタヌでカスタマヌ サヌビスを匷化しおいたす。NVIDIA Tokkio ず ACE、 NVIDIA NIM マむクロサヌビス 、 NVIDIA NeMo を搭茉した最先端のアバタヌが、既存の゚ンタヌプラむズ アプリケヌションずシヌムレスに統合し、リアリティを高めながら運甚ず顧客䜓隓を向䞊させたす。デゞタル アバタヌ ワヌクフロヌにファむンチュヌニングされた NIM のデプロむは、費甚察効果が高く、䌁業のトヌクンに察する支出を削枛するこずが実蚌されおいたす。 SoftServe SoftServe Digital Concierge は、NVIDIA AI Blueprint ず NVIDIA NIM マむクロサヌビスによっお加速されおおり、NVIDIA ACE、NVIDIA Riva、NVIDIA Audio2Face NIM マむクロサヌビスを䜿甚しお、非垞にリアルなバヌチャル アシスタントを提䟛したす。Character Creator ツヌルを䜿甚するこずで、音声や顔の衚情を驚くほど正確か぀リアルに詳现を再珟できたす。 NVIDIA NeMo Retriever の RAG 機胜により、SoftServe Digital Concierge は、文脈を参照し、特定の最新情報を提䟛するこずで、顧客からの問い合わせにむンテリゞェントに察応できたす。耇雑な問い合わせを簡玠化し、明確で簡朔な回答にたずめ、必芁に応じお詳现な説明を提䟛するこずもできたす。 EXL EXL の Smart Agent Assist 補品は、NVIDIA Riva、NVIDIA NeMo、NVIDIA NIM マむクロサヌビスを掻甚したコンタクト センタヌ AI ゜リュヌションです。EXL は、AI 仮想゚ヌゞェント向けの NVIDIA AI Blueprint を䜿甚しお、゜リュヌションを匷化する予定です。 NVIDIA AI Summit India で、NVIDIA コンサルティング パヌトナヌが、むンドを AI のフロント オフィスに倉革するために、NVIDIA ずのコラボレヌションを発衚したした。NVIDIA テクノロゞを䜿甚するこずで、これらのコンサルティング倧手は、顧客がカスタマヌ サヌビス ゚ヌゞェントの Blueprint をカスタマむズし、奜みの AI モデル (むンドに拠点を眮くモデル メヌカヌが提䟛する゜ブリン LLM を含む) を䜿甚しお独自のバヌチャル アシスタントを構築し、垌望のむンフラで効率的に本番皌動できるようにしたす。 今すぐ始める Blueprint を無料で詊したり、システム芁件を確認するには、 Blueprint カヌド をご参照ください。これらのマむクロサヌビスを䜿甚しおアプリケヌションの構築を始めるには、 NVIDIA API カタログ にアクセスしおください。 サむンむン するには、NIM で構築するさたざたなオプションにアクセスするため、個人甚たたはビゞネス甚のメヌル アドレスを入力する必芁がありたす。詳现に぀いおは、 NVIDIA NIM FAQ をご芧ください。 関連情報 GTC セッション: 金融郚門向けの安党で効率的なバヌチャル アシスタント GTC セッション: 生成 AI の課題ぞの察応ず可胜性の掻甚: NVIDIA の゚ンタヌプラむズ デプロむから埗られた掞察 NGC コンテナヌ: retail-shopping-advisor-chatbot-service NGC コンテナヌ: retail-shopping-advisor-frontend-service りェビナヌ: 金融サヌビス コンタクト センタヌ向けの AI 音声察応バヌチャル アシスタントの構築ず導入方法 りェビナヌ: 通信䌁業が察話型 AI で顧客䜓隓を倉革する方法
https://developer.nvidia.com/blog/hymba-hybrid-head-architecture-boosts-small-language-model-performance/
Hymba Hybrid-Head Architecture Boosts Small Language Model Performance
Transformers, with their attention-based architecture, have become the dominant choice for language models (LMs) due to their strong performance, parallelization capabilities, and long-term recall through key-value (KV) caches. However, their quadratic computational cost and high memory demands pose efficiency challenges. In contrast, state space models (SSMs) like Mamba and Mamba-2 offer constant complexity and efficient hardware optimization but struggle with memory recall tasks, affecting their performance on general benchmarks. NVIDIA researchers recently proposed Hymba , a family of small language models (SLMs) featuring a hybrid-head parallel architecture that integrates transformer attention mechanisms with SSMs to achieve both enhanced efficiency and improved performance. In Hymba, attention heads provide high-resolution recall, while SSM heads enable efficient context summarization. The novel architecture of Hymba reveals several insights: Overhead in attention: Over 50% of attention computation can be replaced by cheaper SSM computation. Local attention dominance: Most global attention can be replaced by local attention without sacrificing performance on general and recall-intensive tasks, thanks to the global information summarized by SSM heads. KV cache redundancy: Key-value cache is highly correlated across heads and layers, so it can be shared across heads (group query attention) and layers (cross-layer KV cache sharing). Softmax attention limitation: Attention mechanisms are constrained to sum to one, limiting sparsity, and flexibility. We introduce learnable meta-tokens that are prepended to prompts, storing critical information and alleviating the “forced-to-attend” burden associated with attention mechanisms. This post shows that Hymba 1.5B performs favorably against state-of-the-art open-source models of similar size, including Llama 3.2 1B, OpenELM 1B, Phi 1.5, SmolLM2 1.7B, Danube2 1.8B, and Qwen2.5 1.5B. Compared to Transformer models of similar size, Hymba also achieves higher throughput and requires 10x less memory to store cache. Hymba 1.5B is released to the Hugging Face collection and GitHub . Hymba 1.5B performance Figure 1 compares Hymba 1.5B against sub-2B models (Llama 3.2 1B, OpenELM 1B, Phi 1.5, SmolLM2 1.7B, Danube2 1.8B, Qwen2.5 1.5B) in terms of average task accuracy, cache size (MB) relative to sequence length, and throughput (tok/sec). Figure 1. Performance comparison of Hymba 1.5B Base against sub-2B models In this set of experiments, the tasks include MMLU, ARC-C, ARC-E, PIQA, Hellaswag, Winogrande, and SQuAD-C. The throughput is measured on an NVIDIA A100 GPU with a sequence length of 8K and a batch size of 128 using PyTorch. For models encountering out of memory (OOM) issues during throughput measurement, the batch size was halved until the OOM is resolved to measure the maximal achievable throughput without OOM. Hymba model design SSMs such as Mamba were introduced to address the quadratic complexity and large inference-time KV cache issues of transformers. However, due to their low-resolution memory, SSMs struggle with memory recall and performance. To overcome these limitations, we propose a road map for developing efficient and high-performing small LMs in Table 1. Configuration Commonsense reasoning (%) ↑ Recall (%) ↑ Throughput (token/sec) ↑ Cache size (MB) ↓ Design reason Ablations on 300M model size and 100B training tokens Transformer (Llama) 44.08 39.98 721.1 414.7 Accurate recall while inefficient State-space models (Mamba) 42.98 19.23 4720.8 1.9 Efficient while inaccurate recall A. + Attention heads (sequential) 44.07 45.16 776.3 156.3 Enhance recall capabilities B. + Multi-head heads (parallel) 45.19 49.90 876.7 148.2 Better balance of two modules C. + Local / global attention 44.56 48.79 2399.7 41.2 Boost compute/cache efficiency D. + KV cache sharing 45.16 48.04 2756.5 39.4 Cache efficiency E. + Meta-tokens 45.59 51.79 2695.8 40.0 Learned memory initialization Scaling to 1.5B model size and 1.5T training tokens F. + Size / data 60.56 64.15 664.1 78.6 Further boost task performance G. + Extended context length (2K→8K) 60.64 68.79 664.1 78.6 Improve multishot and recall tasks Table 1. Design road map of the Hymba model Fused hybrid modules Fusing attention and SSM heads in parallel within a hybrid-head module outperforms sequential stacking, according to the ablation study. Hymba fuses attention and SSM heads in parallel within a hybrid head module, enabling both heads to process the same information simultaneously. This architecture improves reasoning and recall accuracy. Figure 2. The hybrid-head module in Hymba Efficiency and KV cache optimization While attention heads improve task performance, they increase KV cache requirements and reduce throughput. To mitigate this, Hymba optimizes the hybrid-head module by combining local and global attention and employing cross-layer KV cache sharing. This improves throughput by 3x and reduces cache by almost 4x without sacrificing performance. Figure 3. Hymba model architecture Meta-tokens A set of 128 pretrained embeddings prepended to inputs, functioning as learned cache initialization to enhance focus on relevant information. These tokens serve a dual purpose: Mitigating attention drain by acting as backstop tokens, redistributing attention effectively Encapsulating compressed world knowledge Figure 4. Interpretation of Hymba from the memory aspect Model analysis This section presents an apples-to-apples comparison across different architectures under the same training settings. We then visualize the attention maps of SSM and Attention in different pretrained models. Finally, we perform head importance analysis for Hymba through pruning. All the analyses in this section help to illustrate how and why the design choices for Hymba are effective. Apples-to-apples comparison We performed an apples-to-apples comparison of Hymba, pure Mamba2, Mamba2 with FFN, Llama3 style, and Samba style (Mamba-FFN-Attn-FFN) architectures. All models have 1 billion parameters and are trained from scratch for 100 billion tokens from SmolLM-Corpus with exactly the same training recipe. All results are obtained through lm-evaluation-harness using a zero-shot setting on Hugging Face models. Hymba performs the best on commonsense reasoning as well as question answering and recall-intensive tasks. Table 2 compares various model architectures on language modeling and recall-intensive and commonsense reasoning tasks, with Hymba achieving strong performance across metrics. Hymba demonstrates the lowest perplexity in language tasks (18.62 for Wiki and 10.38 for LMB) and solid results in recall-intensive tasks, particularly in SWDE (54.29) and SQuAD-C (44.71), leading to the highest average score in this category (49.50). Model Language (PPL) ↓ Recall intensive (%) ↑ Commonsense reasoning (%) ↑ Mamba2 15.88 43.34 52.52 Mamba2 w/ FFN 17.43 28.92 51.14 Llama3 16.19 47.33 52.82 Samba 16.28 36.17 52.83 Hymba 14.5 49.5 54.57 Table 2. Comparison of architectures trained on 100 billion tokens under the same settings In commonsense reasoning and question answering, Hymba outperforms other models in most tasks, such as SIQA (31.76) and TruthfulQA (31.64), with an average score of 54.57, slightly above Llama3 and Mamba2. Overall, Hymba stands out as a balanced model, excelling in both efficiency and task performance across diverse categories. Attention map visualization We further categorized elements in the attention map into four types: Meta: Attention scores from all real tokens to meta-tokens. This category reflects the model’s preference for attending to meta-tokens. In attention maps, they are usually located in the first few columns (for example, 128 for Hymba) if a model has meta-tokens. BOS: Attention scores from all real tokens to the beginning-of-sequence token. In the attention map, they are usually located in the first column right after the meta-tokens. Self: Attention scores from all real tokens to themselves. In the attention map, they are usually located in the diagonal line. Cross: Attention scores from all real tokens to other real tokens. In the attention map, they are usually located in the off-diagonal area. The attention pattern of Hymba is significantly different from that of vanilla Transformers. In vanilla Transformers, attention scores are more concentrated on BOS, which is consistent with the findings in Attention Sink. In addition, vanilla Transformers also have a higher proportion of Self attention scores. In Hymba, meta-tokens, attention heads, and SSM heads work complementary to each other, leading to a more balanced distribution of attention scores across different types of tokens. Specifically, meta-tokens offload the attention scores from BOS, enabling the model to focus more on the real tokens. SSM heads summarize the global context, which focuses more on current tokens (Self attention scores). Attention heads, on the other hand, pay less attention to Self and BOS tokens, and more attention to other tokens (that is, Cross attention scores). This suggests that the hybrid-head design of Hymba can effectively balance the attention distribution across different types of tokens, potentially leading to better performance. Figure 5. Schematics of the attention map of Hymba as a combination of meta-tokens, sliding window attention, and Mamba contributions Figure 6. Sum of the attention score from different categories in Llama 3.2 3B and Hymba 1.5B Heads importance analysis We analyzed the relative importance of attention and SSM heads in each layer by removing them and recording the final accuracy. Our analysis reveals the following: The relative importance of attention/SSM heads in the same layer is input-adaptive and varies across tasks, suggesting that they can serve different roles when handling various inputs. The SSM head in the first layer is critical for language modeling, and removing it causes a substantial accuracy drop to random guess levels. Generally, removing one attention/SSM head results in an average accuracy drop of 0.24%/1.1% on Hellaswag, respectively. Figure 7. The achieved accuracy, measured using 1K samples from Hellaswag, after removing the Attention or SSM heads in each layer Model architecture and training best practices This section outlines key architectural decisions and training methodologies for Hymba 1.5B Base and Hymba 1.5B Instruct. Model architecture Hybrid architecture: Mamba is great at summarization and usually closer focuses on the current token, while attention is more precise and acts as snapshot memory. Combining them in parallel merges these benefits, but standard sequential fusion does not. We chose a 5:1 parameter ratio between SSM and attention heads. Sliding window attention: Full attention heads are preserved in three layers (first, last, and middle), with sliding window attention heads used in the remaining 90% layers. Cross-layer KV cache sharing: Implemented between every two consecutive attention layers. It is done in addition to GQA KV cache sharing between heads. Meta-tokens: These 128 tokens are learnable with no supervision, helping to avoid entropy collapse problems in large language models (LLMs) and mitigate the attention sink phenomenon. Additionally, the model stores general knowledge in these tokens. Training best practices Pretraining: We opted for two-stage base model training. Stage 1 maintained a constant large learning rate and used less filtered large corpus data. Continuous learning rate decay was then performed to 1e-5 using high-quality data. This approach enables continuous training and resuming of Stage 1. Instruction fine-tuning: Instruct model tuning is performed in three stages. First, SFT-1 provides the model with strong reasoning abilities by training on code, math, function calling, role play, and other task-specific data. Second, SFT-2 teaches the model to follow human instructions. Finally, DPO is leveraged to align the model with human preferences and improve the model’s safety. Figure 8. Training pipeline adapted for the Hymba model family Performance and efficiency evaluation With only 1.5T pretraining tokens, the Hymba 1.5B model performs the best among all small LMs and achieves better throughput and cache efficiency than all transformer-based LMs. For example, when benchmarking against the strongest baseline, Qwen2.5, which is pretrained on 13x more tokens, Hymba 1.5B achieves a 1.55% average accuracy improvement, 1.41x throughput, and 2.90x cache efficiency. Compared to the strongest small LM trained on fewer than 2T tokens, namely h2o-danube2, our method achieves a 5.41% average accuracy improvement, 2.45x throughput, and 6.23x cache efficiency. Model # Para-ms Train tokens Token per sec Cache (MB) MMLU 5- shot ARC-E 0-shot ARC-C 0-shot PIQA 0-shot Wino. 0-shot Hella. 0-shot SQuAD -C 1-shot Avg Open ELM-1 1.1B 1.5T 246 346 27.06 62.37 19.54 74.76 61.8 48.37 45.38 48.57 Rene v0.1 1.3B 1.5T 800 113 32.94 67.05 31.06 76.49 62.75 51.16 48.36 52.83 Phi 1.5 1.3B 0.15T 241 1573 42.56 76.18 44.71 76.56 72.85 48 30.09 55.85 Smol LM 1.7B 1T 238 1573 27.06 76.47 43.43 75.79 60.93 49.58 45.81 54.15 Cosmo 1.8B .2T 244 1573 26.1 62.42 32.94 71.76 55.8 42.9 38.51 47.2 h20 dan-ube2 1.8B 2T 271 492 40.05 70.66 33.19 76.01 66.93 53.7 49.03 55.65 Llama 3.2 1B 1.2B 9T 535 262 32.12 65.53 31.39 74.43 60.69 47.72 40.18 50.29 Qwen 2.5 1.5B 18T 469 229 60.92 75.51 41.21 75.79 63.38 50.2 49.53 59.51 AMD OLMo 1.2B 1.3T 387 1049 26.93 65.91 31.57 74.92 61.64 47.3 33.71 48.85 Smol LM2 1.7B 11T 238 1573 50.29 77.78 44.71 77.09 66.38 53.55 50.5 60.04 Llama 3.2 3B 3.0B 9T 191 918 56.03 74.54 42.32 76.66 69.85 55.29 43.46 59.74 Hymba 1.5B 1.5T 664 79 51.19 76.94 45.9 77.31 66.61 53.55 55.93 61.06 Table 2. Hymba 1.5B Base model results Instructed models The Hymba 1.5B Instruct model achieves the highest performance on an average of all tasks, outperforming the previous state-of-the-art model, Qwen 2.5 Instruct, by around 2%. Specifically, Hymba 1.5B surpasses all other models in GSM8K/GPQA/BFCLv2 with a score of 58.76/31.03/46.40, respectively. These results indicate the superiority of Hymba 1.5B, particularly in areas requiring complex reasoning capabilities. Model # Params MMLU ↑ IFEval ↑ GSM8K ↑ GPQA ↑ BFCLv2 ↑ Avg. ↑ SmolLM 1.7B 27.80 25.16 1.36 25.67 -* 20.00 OpenELM 1.1B 25.65 6.25 56.03 21.62 -* 27.39 Llama 3.2 1.2B 44.41 58.92 42.99 24.11 20.27 38.14 Qwen2.5 1.5B 59.73 46.78 56.03 30.13 43.85 47.30 SmolLM2 1.7B 49.11 55.06 47.68 29.24 22.83 40.78 Hymba 1.5B 1.5B 52.79 57.14 58.76 31.03 46.40 49.22 Table 3. Hymba 1.5B Instruct model results Conclusion The new Hymba family of small LMs features a hybrid-head architecture that combines the high-resolution recall capabilities of attention heads with the efficient context summarization of SSM heads. To further optimize the performance of Hymba, learnable meta-tokens are introduced to act as a learned cache for both attention and SSM heads, enhancing the model’s focus on salient information. Through the road map of Hymba, comprehensive evaluations, and ablation studies, Hymba sets new state-of-the-art performance across a wide range of tasks, achieving superior results in both accuracy and efficiency. Additionally, this work provides valuable insights into the advantages of hybrid-head architectures, offering a promising direction for future research in efficient LMs. Learn more about Hybma 1.5B Base and Hymba 1.5B Instruct . Acknowledgments This work would not have been possible without contributions from many people at NVIDIA, including Wonmin Byeon, Zijia Chen, Ameya Sunil Mahabaleshwarkar, Shih-Yang Liu, Matthijs Van Keirsbilck, Min-Hung Chen, Yoshi Suhara, Nikolaus Binder, Hanah Zhang, Maksim Khadkevich, Yingyan Celine Lin, Jan Kautz, Pavlo Molchanov, and Nathan Horrocks.
https://developer.nvidia.com/ja-jp/blog/hymba-hybrid-head-architecture-boosts-small-language-model-performance/
Hymba ハむブリッド ヘッド アヌキテクチャが小芏暡蚀語モデルのパフォヌマンスを向䞊
Reading Time: 4 minutes Transformer は、その Attention ベヌスのアヌキテクチャによる、匷力なパフォヌマンス、䞊列化胜力、および KV (Key-Value) キャッシュを通じた長期蚘憶のおかげで、蚀語モデル (LM) の䞻流ずなっおいたす。しかし、二次蚈算コストず高いメモリ芁求により、効率性に課題が生じおいたす。これに察し、Mamba や Mamba-2 のような状態空間モデル (SSMs) は、耇雑さを䞀定にしお効率的なハヌドりェア最適化を提䟛したすが、メモリ想起タスクが苊手でそれは䞀般的なベンチマヌクでのパフォヌマンスに圱響を䞎えおいたす。 NVIDIA の研究者は最近、効率性ずパフォヌマンスの䞡方を向䞊させるために、Transformer の Attention メカニズムを SSM ず統合したハむブリッド ヘッド䞊列アヌキテクチャを特城ずする小芏暡蚀語モデル (SLM) ファミリである Hymba を提案したした。Hymba では、Attention ヘッドが高解像床の蚘憶胜力を提䟛し、SSM ヘッドが効率的なコンテキストの芁玄を可胜にしたす。 Hymba の新たなアヌキテクチャは、いく぀かの掞察を明らかにしおいたす。 Attention のオヌバヌヘッド: Attention 蚈算の 50% 以䞊を、より安䟡な SSM 蚈算に眮き換えるこずができたす。 ロヌカル Attention の優䜍性: SSM ヘッドにより芁玄されたグロヌバル情報のおかげで、䞀般的なタスクやメモリ想起に集䞭するタスクのパフォヌマンスを犠牲にするこずなく、ほずんどのグロヌバル Attention をロヌカル Attention に眮き換えるこずができたす。 KV キャッシュ冗長性: Key-value キャッシュは、ヘッド間ずレむダヌ間で高い盞関性があるため、ヘッド間 (GQA: Group Query Attention) およびレむダヌ間 (Cross-layer KV キャッシュ共有) で共有できたす。 Softmax の Attention の制限: Attention メカニズムは、合蚈が 1 になるように制限されおおり、疎性ず柔軟性に制限がありたす。NVIDIA は、プロンプトの先頭に孊習可胜なメタトヌクンを導入し、重芁な情報を栌玍し、Attention メカニズムに関連する「匷制的に Attention を行う」負担を軜枛したす。 この蚘事では、Hymba 1.5B が同様の芏暡である最先端のオヌプン゜ヌス モデル、Llama 3.2 1B、OpenELM 1B、Phi 1.5、SmolLM2 1.7B、Danube2 1.8B、Qwen2.5 1.5B などず比范しお、良奜なパフォヌマンスを発揮するこずが瀺されおいたす。同等のサむズの Transformer モデルず比范するず、Hymba はより高いスルヌプットを発揮し、キャッシュを保存するために必芁なメモリが 10 分の 1 で枈みたす。 Hymba 1.5B は Hugging Face コレクションず GitHub で公開されおいたす。 Hymba 1.5B のパフォヌマンス 図 1 は、Hymba 1.5B ず 2B 未満のモデル (Llama 3.2 1B、OpenELM 1B、Phi 1.5、SmolLM2 1.7B、Danube2 1.8B、Qwen2.5 1.5B) を、平均タスク粟床、シヌケンス長に察するキャッシュ サむズ (MB)、スルヌプット (tok/sec) で比范したものです。 図 1. Hymba 1.5B Base ず 2B 未満のモデルのパフォヌマンス比范 この䞀連の実隓には、MMLU、ARC-C、ARC-E、PIQA、Hellaswag、Winogrande、SQuAD-C などのタスクが含たれおいたす。スルヌプットは、シヌケンス長 8K、バッチ サむズ 128 で PyTorch を䜿甚しお NVIDIA A100 GPU で枬定したす。スルヌプット枬定䞭にメモリ䞍足 (OOM: Out of Memory) 問題が発生したモデルでは、OOM が解決されるたでバッチ サむズを半分にしお、OOM なしで達成可胜な最倧スルヌプットを枬定したした。 Hymba モデルのデザむン Mamba のような SSM は、Transformer の二次的な耇雑性ず掚論時の KV キャッシュが倧きい問題に察凊するために導入されたした。しかし、メモリ解像床が䜎いために、SSM は蚘憶想起ずパフォヌマンスの点で苊戊しおいたす。これらの制限を克服するために、衚 1 で効率的で高性胜な小芏暡蚀語モデルを開発するためのロヌドマップを提案したす。 構成 垞識掚論 (%) ↑ リコヌル (%) ↑ スルヌプット (token/sec) ↑ キャッシュ サむズ (MB) ↓ 蚭蚈理由 300M モデル サむズず 100B トレヌニング トヌクンのアブレヌション Transformer (Llama) 44.08 39.98 721.1 414.7 非効率的ながら正確な蚘憶 状態空間モデル (Mamba) 42.98 19.23 4720.8 1.9 効率的だが䞍正確な蚘憶 A. + Attention ヘッド (連続) 44.07 45.16 776.3 156.3 蚘憶胜力を匷化 B. + 耇数ヘッド (䞊列) 45.19 49.90 876.7 148.2 2 ぀のモゞュヌルのバランスの改善 C. + ロヌカル / グロヌバル Attention 44.56 48.79 2399.7 41.2 挔算 / キャッシュの効率を向䞊 D. + KV キャッシュ共有 45.16 48.04 2756.5 39.4 キャッシュ効率化 E. + メタトヌクン 45.59 51.79 2695.8 40.0 孊習した蚘憶の初期化 1.5B モデル サむズず 1.5T トレヌニング トヌクンぞのスケヌリング F. + サむズ / デヌタ 60.56 64.15 664.1 78.6 タスク パフォヌマンスのさらなる向䞊 G. + コンテキスト長の拡匵 (2K→8K) 60.64 68.79 664.1 78.6 マルチショットずリコヌル タスクの改善 è¡š 1. Hymba モデルのデザむン ロヌドマップ 融合型ハむブリッド モゞュヌル アブレヌション研究によるず、ハむブリッド ヘッド モゞュヌル内で Attention ず SSM ヘッドを䞊列にしお融合するほうが、シヌケンシャルにスタッキングするより優れおいるこずが分かっおいたす。Hymba は、ハむブリッド ヘッド モゞュヌル内で Attention ず SSM ヘッドを䞊列に融合させ、䞡ヘッドが同時に同じ情報を凊理できるようにしたす。このアヌキテクチャは、掚論ず蚘憶の正確さを高めたす。 図 2. Hymba のハむブリッド ヘッド モゞュヌル 効率性ず KV キャッシュの最適化 Attention ヘッドはタスクのパフォヌマンスを向䞊させたすが、KV キャッシュの芁求を増倧させ、スルヌプットを䜎䞋させたす。これを緩和するために、Hymba はロヌカルおよびグロヌバルの Attention を組み合わせ、 Cross-layer KV キャッシュ共有を採甚するこずで、ハむブリッド ヘッド モゞュヌルを最適化したす。これにより、パフォヌマンスを犠牲にするこずなくスルヌプットが 3 倍向䞊し、キャッシュがほが 4 分の 1 に削枛されたす。 図 3. Hymba モデルのアヌキテクチャ メタトヌクン 入力の先頭に眮かれる 128 の事前孊習枈みの埋め蟌みのセットであり、孊習枈みキャッシュの初期化ずしお機胜し、関連情報ぞの泚意を匷化したす。このようなトヌクンには 2 ぀の目的がありたす。 バックストップ トヌクンずしお機胜し、Attention を効果的に再分配するこずで Attention の流出を軜枛する 圧瞮された䞖界知識をカプセル化する 図 4. メモリの偎面から芋た Hymba の解釈 モデル解析 このセクションでは、同䞀のトレヌニング蚭定における異なるアヌキテクチャを比范する方法を玹介したす。それから、SSM ず Attention の Attention マップを異なる孊習枈みモデルで可芖化し、最埌に、剪定 (pruning) を通じお Hymba のヘッド重芁床分析を行いたす。このセクションのすべおの分析は、Hymba のデザむンにおける遞択の仕組みず、それが効果的な理由を説明するのに圹立ちたす。 同䞀条件での比范 Hymba、玔粋な Mamba2、Mamba2 ず FFN、Llama3 スタむル、Samba スタむル (Mamba-FFN-Attn-FFN) のアヌキテクチャを同䞀条件で比范したした。すべおのモデルが 10 億のパラメヌタヌで、たったく同じトレヌニング レシピで SmolLM-Corpus から 1,000 億トヌクンをれロから孊習しおいたす。すべおの結果は、Hugging Face モデルでれロショット蚭定を䜿甚しお lm-evaluation-harness を通じお取埗されおいたす。Hymba は、垞識掚論だけでなく、質問応答タスクや蚘憶想起タスクでも最高のパフォヌマンスを発揮したす。 è¡š 2 は、蚀語モデリングタスクず蚘憶想起タスクおよび垞識掚論タスクに関するさたざたなモデル アヌキテクチャを比范しおおり、Hymba はすべおの評䟡基準で卓越したパフォヌマンスを達成しおいたす。Hymba は、蚀語モデリングタスクで最も䜎い Perplexity を瀺し (Wiki で 18.62、LMB で 10.38)、特に SWDE (54.29) ず SQuAD-C (44.71) の蚘憶想起タスクにおいお堅実な結果を瀺し、このカテゎリで最高の平均スコア (49.50) を達成したした。 モデル 蚀語モデリング (PPL) ↓ 蚘憶想起型 (%) ↑ 垞識掚論 (%) ↑ Mamba2 15.88 43.34 52.52 Mamba2 ず FFN 17.43 28.92 51.14 Llama3 16.19 47.33 52.82 Samba 16.28 36.17 52.83 Hymba 14.5 49.5 54.57 è¡š 2. 同じ蚭定で 1,000 億トヌクンで孊習されたアヌキテクチャの比范 垞識掚論ず質問応答においお、Hymba は平均スコア 54.57 で、 SIQA (31.76) や TruthfulQA (31.64) などのほずんどのタスクで、Llama3 や Mamba2 をやや䞊回っおいたす。党䜓的に、Hymba はバランスの取れたモデルずしお際立っおおり、倚様なカテゎリで効率性ずタスク パフォヌマンスの䞡方で優れおいたす。 Attention マップの可芖化 さらに、Attention マップの芁玠を 4 ぀のタむプに分類したした。 Meta: すべおの実トヌクンからメタトヌクンぞの Attention スコア。このカテゎリは、モデルがメタトヌクンに Attention を向ける傟向を反映するものです。Attention マップでは、通垞、モデルにメタトヌクンがある堎合、最初の数列 (䟋えば Hymba の堎合は 128) に䜍眮しおいたす。 BOS: すべおの実トヌクンからセンテンスの開始トヌクンたでの Attention スコア。Attention マップでは、通垞、メタトヌクンの盎埌の最初の列に䜍眮したす。 Self: すべおの実トヌクンからそれ自身ぞの Attention スコア。Attention マップでは、通垞、察角線䞊に䜍眮しおいたす。 Cross: すべおの実トヌクンから他の実トヌクンぞの Attention スコア。Attention マップでは、通垞、察角線倖の領域に䜍眮しおいたす。 Hymba の Attention パタヌンは、vanilla (加工されおいない) Transformer のそれずは倧きく異なりたす。vanilla Transformer の Attention スコアは BOS に集䞭しおおり、Attention Sink の結果ず䞀臎しおいたす。さらに、vanilla Transformer は、Self-Attention スコアの比率も高くなっおいたす。Hymba では、メタトヌクン、Attention ヘッド、SSM ヘッドが互いに補完し合うように機胜し、異なるタむプのトヌクン間で、よりバランスの取れた Attention スコアの分垃を実珟しおいたす。 具䜓的には、メタトヌクンが BOS からの Attention スコアをオフロヌドするこずで、モデルがより実際のトヌクンに集䞭できるようになりたす。SSM ヘッドはグロヌバルなコンテキストを芁玄し、珟圚のトヌクン (Self-Attention スコア) により重点を眮きたす。䞀方、Attention ヘッドは、Self ず BOS トヌクンに察する泚意が䜎く、他のトヌクン (すなわち、Cross Attention スコア) ぞの泚意が高くなりたす。これは、Hymba のハむブリッド ヘッド デザむンが、異なるタむプのトヌクン間の Attention 分垃のバランスを効果的に取るこずができ、パフォヌマンスの向䞊に぀ながる可胜性があるこずを瀺唆しおいたす。 図 5. メタトヌクン、Sliding Window Attention、Mamba 貢献の組み合わせによる Hymba の Attention マップの抂略図 図 6. Llama 3.2 3B ず Hymba 1.5B の異なるカテゎリからの Attention スコアの合蚈 ヘッド重芁床分析 各レむダヌのAttention ず SSM ヘッドの盞察的な重芁性を分析するために、それぞれを削陀しお最終的な粟床を蚘録したした。分析の結果、以䞋のこずが明らかになりたした。 同じレむダヌの  Attention / SSM ヘッドの盞察的な重芁性は入力適応であり、タスクによっお異なりたす。これは、さたざたな入力の凊理においお、異なる圹割を果たす可胜性があるこずを瀺唆しおいたす。 最初のレむダヌの SSM ヘッドは蚀語モデリングタスクに䞍可欠で、これを削陀するず、ランダム掚枬レベルにたで倧幅に粟床が䜎䞋したす。 䞀般的に、Attention / SSM ヘッドを 1 ぀削陀するず、Hellaswag ではそれぞれ平均 0.24%/1.1% 粟床が䜎䞋したす。 図 7. Hellaswag の 1K サンプルを䜿甚しお枬定した、各レむダヌの Attention たたは SSM ヘッドを削陀した埌の達成粟床 モデル アヌキテクチャず孊習のベスト プラクティス このセクションでは、Hymba 1.5B Base ず Hymba 1.5B Instruct の䞻芁アヌキテクチャ䞊の決定事項ず孊習方法の抂芁に぀いお説明したす。 モデル アヌキテクチャ ハむブリッド アヌキテクチャ: Mamba は芁玄に優れ、通垞は珟圚のトヌクンにより重点を眮きたす。Attention はより正確でスナップショット メモリずしお機胜したす。暙準的なシヌケンシャル融合ではなく、䞊列に組み合わせるこずで利点を統合するこずができたす。SSM ず Attention ヘッド間のパラメヌタヌ比は 5:1 を遞択したした。 Sliding Window Attention: 完党な Attention ヘッドは 3 ぀のレむダヌ (最初、最埌、䞭間) に維持され、残りの 90% のレむダヌで Sliding Window Attention ヘッドが䜿甚されたす。 Cross-layer KV キャッシュ共有: 連続する 2 ぀の Attention レむダヌ間に実装されたす。これは、ヘッド間の GQA KV キャッシュ共有に加えお行われたす。 メタトヌクン: これらの 128 トヌクンは教垫なし孊習が可胜であり、倧芏暡蚀語モデル (LLM) における゚ントロピヌ厩壊の問題を回避し、Attention Sink 珟象を緩和するのに圹立ちたす。さらに、モデルはこれらのトヌクンに䞀般的な知識を栌玍したす。 孊習のベスト プラクティス 事前孊習: 2 段階のベヌスモデル孊習を遞択したした。ステヌゞ 1 では、䞀定の高い孊習率を維持し、フィルタリングされおいない倧芏暡なコヌパス デヌタの䜿甚したした。続いお、高品質のデヌタを甚いお 1e-5 たで継続的に孊習率を枛衰させたした。このアプロヌチにより、ステヌゞ 1 の継続的な孊習ず再開が可胜になりたす。 指瀺ファむンチュヌニング: 指瀺モデルの調敎は 3 ぀の段階で行われたす。たず、SFT-1 は、コヌド、数孊、関数呌び出し、ロヌル プレむ、その他のタスク固有のデヌタで孊習を実斜し、匷力な掚論胜力をモデルに付䞎したす。次に、SFT-2 はモデルに人間の指瀺に埓うこずを教えたす。最埌に、DPO を掻甚しお、モデルを人間の奜みに合わせ、モデルの安党性を高めたす。 図 8. Hymba モデル ファミリに適応した孊習パむプラむン パフォヌマンスず効率性の評䟡 1.5T の事前孊習トヌクンだけで、Hymba 1.5B モデルはすべおの小芏暡蚀語モデルの䞭で最高の性胜を発揮し、Transformer ベヌスの LM よりも優れたスルヌプットずキャッシュ効率を実珟したす。 䟋えば、13 倍以䞊のトヌクン数で事前孊習された最も匷力なベヌスラむンである Qwen2.5 に察しおベンチマヌクした堎合、Hymba 1.5B は平均粟床が 1.55%、スルヌプットが 1.41 倍、キャッシュ効率が 2.90 倍に向䞊したす。2T 未満のトヌクンで孊習された最も匷力な小芏暡蚀語モデル、すなわち h2o-danube2 ず比范するず、この方法は平均粟床が 5.41%、スルヌプットが 2.45 倍、キャッシュ効率が 6.23 倍に向䞊しおいたす。 モデル パラメヌタヌ数 孊習トヌクン トヌクン (1 秒あたり) キャッシュ (MB) MMLU 5- shot ARC-E 0-shot ARC-C 0-shot PIQA 0-shot Wino. 0-shot Hella. 0-shot SQuAD -C 1-shot 平均 OpenELM-1 1.1B 1.5T 246 346 27.06 62.37 19.54 74.76 61.8 48.37 45.38 48.57 Renev0.1 1.3B 1.5T 800 113 32.94 67.05 31.06 76.49 62.75 51.16 48.36 52.83 Phi1.5 1.3B 0.15T 241 1573 42.56 76.18 44.71 76.56 72.85 48 30.09 55.85 SmolLM 1.7B 1T 238 1573 27.06 76.47 43.43 75.79 60.93 49.58 45.81 54.15 Cosmo 1.8B .2T 244 1573 26.1 62.42 32.94 71.76 55.8 42.9 38.51 47.2 h20dan-ube2 1.8B 2T 271 492 40.05 70.66 33.19 76.01 66.93 53.7 49.03 55.65 Llama 3.2 1B 1.2B 9T 535 262 32.12 65.53 31.39 74.43 60.69 47.72 40.18 50.29 Qwen2.5 1.5B 18T 469 229 60.92 75.51 41.21 75.79 63.38 50.2 49.53 59.51 AMDOLMo 1.2B 1.3T 387 1049 26.93 65.91 31.57 74.92 61.64 47.3 33.71 48.85 SmolLM2 1.7B 11T 238 1573 50.29 77.78 44.71 77.09 66.38 53.55 50.5 60.04 Llama3.2 3B 3.0B 9T 191 918 56.03 74.54 42.32 76.66 69.85 55.29 43.46 59.74 Hymba 1.5B 1.5T 664 79 51.19 76.94 45.9 77.31 66.61 53.55 55.93 61.06 è¡š 2. Hymba 1.5B ベヌス モデルの結果 指瀺モデル Hymba 1.5B Instruct モデルは、党タスク平均で最高のパフォヌマンスを達成し、盎近の最高性胜モデルである Qwen 2.5 Instruct を玄 2% 䞊回りたした。特に、Hymba 1.5B は GSM8K/GPQA/BFCLv2 で、それぞれ 58.76/31.03/46.40 のスコアで他のすべおのモデルを䞊回っおいたす。これらの結果は、特に耇雑な掚論胜力を必芁ずする分野においお、Hymba 1.5B の優䜍性を瀺しおいたす。 モデル パラメヌタヌ数 MMLU ↑ IFEval ↑ GSM8K ↑ GPQA ↑ BFCLv2 ↑ 平均↑ SmolLM 1.7B 27.80 25.16 1.36 25.67 -* 20.00 OpenELM 1.1B 25.65 6.25 56.03 21.62 -* 27.39 Llama 3.2 1.2B 44.41 58.92 42.99 24.11 20.27 38.14 Qwen2.5 1.5B 59.73 46.78 56.03 30.13 43.85 47.30 SmolLM2 1.7B 49.11 55.06 47.68 29.24 22.83 40.78 Hymba 1.5B 1.5B 52.79 57.14 58.76 31.03 46.40 49.22 è¡š 3. Hymba 1.5B Instruct モデルの結果 たずめ 新しい Hymba ファミリの小芏暡蚀語モデルは、ハむブリッド ヘッド アヌキテクチャを採甚し、Attention ヘッドの高解像な蚘憶胜力ず SSM ヘッドの効率的なコンテキストの芁玄を組み合わせおいたす。Hymba のパフォヌマンスをさらに最適化するために、孊習可胜なメタトヌクンが導入され、Attention ヘッドず SSM ヘッドの䞡方で孊習枈みキャッシュずしお機胜し、顕著な情報に泚目するモデルの粟床を匷化したした。Hymba のロヌドマップ、包括的な評䟡、アブレヌション研究を通じお、Hymba は幅広いタスクにわたっお新たな最先端のパフォヌマンスを確立し、正確さず効率性の䞡面で優れた結果を達成したした。さらに、この研究は、ハむブリッド ヘッド アヌキテクチャの利点に関する貎重な掞察をもたらし、効率的な蚀語モデルの今埌の研究に有望な方向性を瀺しおいたす。 Hybma 1.5B Base ず Hymba 1.5B Instruct の詳现はこちらをご芧ください。 謝蟞 この成果は、Wonmin Byeon、Zijia Chen、Ameya Sunil Mahabaleshwarkar、Shih-Yang Liu、Matthijs Van Keirsbilck、Min-Hung Chen、Yoshi Suhara、Nikolaus Binder、Hanah Zhang、Maksim Khadkevich、Yingyan Celine Lin、Jan Kautz、Pavlo Molchanov、Nathan Horrocks など、NVIDIA の倚くのメンバヌの貢献なくしおは実珟したせんでした。 関連情報 GTC セッション: Optimizing Large Language Models: An Experimental Approach to Pruning and Fine-Tuning LLama2 7B (倧芏暡蚀語モデルの最適化: LLama2 7B の剪定ずファむンチュヌニングの実隓的アプロヌチ) GTC セッション: Accelerating End-to-End Large Language Models System using a Unified Inference Architecture and FP8 (統䞀掚論アヌキテクチャず FP8 を甚いた゚ンドツヌ゚ンドの倧芏暡蚀語モデル システムの高速化) NGC コンテナヌ: Llama-3.1-Nemotron-70B-Ins truct NGC コンテナヌ: Llama-3-Swallow-70B-Instruct-v0.1 SDK: NeMo Megatron
https://developer.nvidia.com/blog/deploying-fine-tuned-ai-models-with-nvidia-nim/
Deploying Fine-Tuned AI Models with NVIDIA NIM
For organizations adapting AI foundation models with domain-specific data, the ability to rapidly create and deploy fine-tuned models is key to efficiently delivering value with enterprise generative AI applications. NVIDIA NIM offers prebuilt, performance-optimized inference microservices for the latest AI foundation models, including seamless deployment of models customized using parameter-efficient fine-tuning (PEFT). In some cases, it’s ideal to use methods like continual pretraining, DPO, supervised fine-tuning (SFT), or model merging, where the underlying model weights are adjusted directly in the training or customization process, unlike PEFT with low-rank adaptation (LoRA). In these cases, inference software configuration for the model must be updated for optimal performance given the new weights. Rather than burden you with this often lengthy process, NIM can automatically build a TensorRT-LLM inference engine performance optimized for the adjusted model and GPUs in your local environment, and then load it for running inference as part of a single-step model deployment process. In this post, we explore how to rapidly deploy NIM microservices for models that have been customized through SFT by using locally built, performance-optimized TensorRT-LLM inference engines. We include all the necessary commands as well as some helpful options, so you can try it out on your own today. Prerequisites To run this tutorial, you need an NVIDIA-accelerated compute environment with access to 80 GB of GPU memory and which has git-lfs installed. Before you can pull and deploy a NIM microservice in an NVIDIA-accelerated compute environment, you also need an NGC API key. Navigate to the Meta Llama 3 8B Instruct model listing in the NVIDIA API Catalog. Choose Login at the top right and follow the instructions. When you’re logged in, choose Build with this NIM on the model page . Choose Self-Hosted API and follow either option to access NIM microservices access: NVIDIA Developer Program membership with free access to NIM for research, development, and testing only. The 90-day NVIDIA AI Enterprise license, which includes access to NVIDIA Enterprise Support. After you provide the necessary details for your selected access method, copy your NGC API key and be ready to move forward with NIM. For more information, see Launch NVIDIA NIM for LLMs . Getting started with NIM microservices Provide your NGC CLI API key as an environment variable in your compute environment: export NGC_API_KEY=<<YOUR API KEY HERE>> You also must point to, create, and modify permissions for a directory to be used as a cache during the optimization process: export NIM_CACHE_PATH=/tmp/nim/.cache mkdir -p $NIM_CACHE_PATH chmod -R 777 $NIM_CACHE_PATH To demonstrate locally built, optimized TensorRT-LLM inference engines for deploying fine-tuned models with NIM, you need a model that has undergone customization through SFT. For this tutorial, use the NVIDIA OpenMath2-Llama3.1-8B model, which is a customization of Meta’s Llama-3.1-8B using the OpenMathInstruct-2 dataset. The base model must be available as a downloadable NIM for LLMs. For more information about downloadable NIM microservices, see the NIM Type: Run Anywhere filter in the NVIDIA API Catalog. All you need is the weights to this model, which can be obtained in several ways. For this post, clone the model repository using the following commands: git lfs install git clone https://huggingface.co/nvidia/OpenMath2-Llama3.1-8B export MODEL_WEIGHT_PARENT_DIRECTORY=$PWD Now that you have the model weights collected, move on to the next step: firing up the microservice. Selecting from available performance profiles Based on your selected model and hardware configuration, the most applicable inference performance profile available is automatically selected. There are two available performance profiles for local inference engine generation: Latency: Focused on delivering a NIM microservice that is optimized for latency. Throughput: Focused on delivering a NIM microservice that is optimized for batched throughput. For more information about supported features, including available precision, see the Support Matrix topic in the NVIDIA NIM documentation. Example using an SFT model Create a locally built TensorRT-LLM inference engine for OpenMath2-Llama3.1-8B by running the following commands: docker run -it --rm --gpus all \ --user $(id -u):$(id -g)\ --network=host \ --shm-size=32GB \ -e NGC_API_KEY \ -e NIM_FT_MODEL=/opt/weights/hf/OpenMath2-Llama3.1-8B \ -e NIM_SERVED_MODEL_NAME=OpenMath2-Llama3.1-8B \ -v $NIM_CACHE_PATH:/opt/nim/.cache \ -v $MODEL_WEIGHT_PARENT_DIRECTORY:/opt/weights/hf \ nvcr.io/nim/meta/llama-3.1-8b-instruct:1.3.0 The command is nearly identical to the typical command you’d use to deploy a NIM microservice. In this case, you’ve added the extra NIM_FT_MODEL parameter, which points to the OpenMath2-Llama3.1-8B model. With that, NIM builds an optimized inference engine locally. To perform inference using this new NIM microservice, run the following Python code example: from openai import OpenAI client = OpenAI( base_url = "http://localhost:8000/v1", api_key = "none" ) completion = client.chat.completions.create( model="OpenMath2-Llama3.1-8B", messages=[{"role":"user","content":"What is your name?"}], temperature=0.2, top_p=0.7, max_tokens=100, stream=True ) for chunk in completion: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="") Video 1. How to Deploy Fine-Tuned AI Models Building an optimized TensorRT-LLM engine with a custom performance profile On supported GPUs , you can use a similar command to spin up your NIM microservice. Follow the Model Profile instructions to launch your microservice and determine which profiles are accessible for it. export IMG_NAME="nvcr.io/nim/meta/llama-3.1-8b-instruct:1.3.0" docker run --rm --gpus=all -e NGC_API_KEY=$NGC_API_KEY $IMG_NAME list-model-profiles Assuming you’re in an environment with two (or more) H100 GPUs, you should see the following profiles available: tensorrt_llm-h100-bf16-tp2–pp1-throughput tensorrt_llm-h100-bf16-tp2-pp1-latency Re-run the command and provide an additional environment variable to specify the desired profile: docker run --rm --gpus=all \ -e NGC_API_KEY \ -e NIM_FT_MODEL=/opt/weights/hf/OpenMath2-Llama3.1-8B \ -e NIM_SERVED_MODEL_NAME=OpenMath2-Llama3.1-8B \ -e NIM_MODEL_PROFILE=tensorrt_llm-h100-bf16-tp2-pp1-latency \ -v $NIM_CACHE_PATH:/opt/nim/.cache \ -v $MODEL_WEIGHT_PARENT_DIRECTORY:/opt/weights/hf \ $IMG_NAME Now that you’ve relaunched your NIM microservice with the desired profile, use Python to interact with the model: from openai import OpenAI client = OpenAI( base_url = "http://localhost:8000/v1", api_key = "none" ) completion = client.chat.completions.create( model="llama-3.1-8b-instruct", messages=[{"role":"user","content":"What is your name?"}], temperature=0.2, top_p=0.7, max_tokens=100, stream=True ) for chunk in completion: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="") Conclusion Whether you’re using PEFT or SFT methods for model customization, NIM accelerates customized model deployment for high-performance inferencing in a few simple steps. With optimized TensorRT-LLM inference engines built automatically in your local environment, NIM is unlocking new possibilities for rapidly deploying accelerated AI inferencing anywhere. Learn more and get started today by visiting the NVIDIA API catalog and checking out the documentation . To engage with NVIDIA and the NIM microservices community, see the NVIDIA NIM developer forum .
https://developer.nvidia.com/ja-jp/blog/deploying-fine-tuned-ai-models-with-nvidia-nim/
NVIDIA NIM でファむンチュヌニングされた AI モデルのデプロむ
Reading Time: 2 minutes ドメむン固有のデヌタで AI 基盀モデルを適応させおいる䌁業にずっお、ファむンチュヌニングされたモデルを迅速に䜜成し、デプロむする胜力は、䌁業の生成 AI アプリケヌションで効率的に䟡倀を提䟛するための鍵ずなりたす。 NVIDIA NIM は、Parapeter-efficient Fine-tuning (PEFT) を甚いおカスタマむズしたモデルの シヌムレスなデプロむ など、最新の AI 基盀モデル向けにビルドされたパフォヌマンスを最適化した掚論マむクロサヌビスを提䟛したす。 堎合によっおは、Low-rank Adaptation (LoRA) を䜿甚した PEFT ずは異なり、継続事前孊習、DPO、教垫ありファむンチュヌニング (SFT: Supervised Fine-tuning)、モデル マヌゞなどの手法を利甚し、基瀎ずなるモデルの重みをトレヌニングやカスタマむズの過皋で盎接調敎するのが理想的です。このような堎合、新しい重みを考慮した最適なパフォヌマンスを実珟するには、モデルの掚論゜フトりェア構成を曎新する必芁がありたす。 この長時間を芁するプロセスに負担を割くのではなく、NIM は、調敎されたモデルず GPU に合わせお最適化した TensorRT-LLM 掚論゚ンゞンをロヌカル環境でビルドし、ロヌドし、それを単䞀ステップのモデル デプロむ プロセスの䞀環ずしお掚論を実行できたす。 この投皿では、パフォヌマンスを最適化した TensorRT-LLM 掚論゚ンゞンをロヌカルでビルドしお、SFT でカスタマむズされたモデルに察する NIM マむクロサヌビスを迅速にデプロむする方法を説明したす。必芁なコマンドず䟿利なオプションもご玹介したすので、是非今すぐお詊しください。 前提条件 このチュヌトリアルを実行するには、80 GB の GPU メモリを持぀ NVIDIA アクセラレヌテッド コンピュヌティング環境ず git-lfs のむンストヌルが必芁です。 NVIDIA アクセラレヌテッド コンピュヌティング環境で、NIM マむクロサヌビスを pull しおデプロむするには、NGC API キヌも必芁です。 NVIDIA API カタログのモデル䞀芧から Meta Llama 3 8B Instruct に移動したす。 右䞊の [Login] を遞択し、指瀺に埓っおください。 ログむンしたら、 モデル ペヌゞ で [Build with this NIM] を遞択したす。 [Self-Hosted API] を遞択し、いずれかのオプションに埓っお、NIM マむクロサヌビスぞアクセスしたす。 NVIDIA 開発者プログラムのメンバヌであれば、研究、開発、テストに限り NIM に無料でアクセスするこずができたす。 90 日間の NVIDIA AI Enterprise ラむセンスには、NVIDIA Enterprise サポヌトぞのアクセスが含たれおいたす。 遞択したアクセス方法に必芁な詳现情報を提䟛したら、NGC API キヌをコピヌしお、NIM を進める準備をしたす。詳现に぀いおは、 Launch NVIDIA NIM for LLMs を参照しおください。 NIM マむクロサヌビスをはじめる 利甚䞭のコンピュヌティング環境の環境倉数ずしお、NGC API キヌを提䟛したす。 export NGC_API_KEY=<<YOUR API KEY HERE>> たた、最適化凊理䞭にキャッシュずしお䜿甚するディレクトリを䜜成しお、パヌミッションを倉曎しお、指定する必芁がありたす。 export NIM_CACHE_PATH=/tmp/nim/.cache mkdir -p $NIM_CACHE_PATH chmod -R 777 $NIM_CACHE_PATH NIM でファむンチュヌニングされたモデルをデプロむするために、最適な TensorRT-LLM 掚論゚ンゞンをロヌカルでビルドする実蚌には、SFT によっおカスタマむズしたモデルが必芁です。このチュヌトリアルでは、 OpenMathInstruct-2 デヌタセットを䜿甚しお、 Meta の Llama-3.1-8B をカスタマむズした NVIDIA OpenMath2-Llama3.1-8B モデルを䜿甚したす。 ベヌス モデルは、ダりンロヌド可胜な NIM for LLMs ずしお利甚可胜でなければなりたせん。ダりンロヌド可胜な NIM マむクロサヌビスの詳现に぀いおは、NVIDIA API カタログの「 NIM Type: Run Anywhere filter 」を参照しおください。 必芁なのはこのモデルの重みだけで、これはさたざたな方法がありたす。この投皿では、以䞋のコマンドを䜿甚しおモデル リポゞトリをクロヌンしたす。 git lfs install git clone https://huggingface.co/nvidia/OpenMath2-Llama3.1-8B export MODEL_WEIGHT_PARENT_DIRECTORY=$PWD これでモデルの重みが収集できたので、次のステップのマむクロサヌビスの起動に進みたす。 利甚可胜なパフォヌマンス プロファむルから遞択する 遞択したモデルずハヌドりェアの構成に基づいお、利甚可胜なものの䞭から最も適切な掚論パフォヌマンス プロファむルが自動的に遞択されたす。ロヌカル掚論゚ンゞンの生成には、以䞋の 2 ぀のパフォヌマンス プロファむルが利甚できたす。 レむテンシ: レむテンシに最適化された NIM マむクロサヌビスの提䟛に重点を眮きたす。 スルヌプット: バッチ スルヌプットに最適化された NIM マむクロサヌビスの提䟛に重点を眮きたす。 利甚可胜な粟床など、サポヌト機胜の詳现に぀いおは、NVIDIA NIM ドキュメントの サポヌト情報 のトピックを参照しおください。 SFT モデルを䜿甚した䟋 以䞋のコマンドを実行しお、ロヌカル環境でビルドした OpenMath2-Llama3.1-8B 甚の TensorRT-LLM 掚論゚ンゞンを䜜成したす。 docker run -it --rm --gpus all \ --user $(id -u):$(id -g)\ --network=host \ --shm-size=32GB \ -e NGC_API_KEY \ -e NIM_FT_MODEL=/opt/weights/hf/OpenMath2-Llama3.1-8B \ -e NIM_SERVED_MODEL_NAME=OpenMath2-Llama3.1-8B \ -v $NIM_CACHE_PATH:/opt/nim/.cache \ -v $MODEL_WEIGHT_PARENT_DIRECTORY:/opt/weights/hf \ nvcr.io/nim/meta/llama-3.1-8b-instruct:1.3.0 このコマンドは、NIM マむクロサヌビスをデプロむするために䜿甚する兞型的なコマンドずほが同じです。この堎合、远加の NIM_FT_MODEL パラメヌタヌを远加し、OpenMath2-Llama3.1-8B モデルを指しおいたす。 これにより、NIM は最適化された掚論゚ンゞンをロヌカル環境でビルドしたす。この新しい NIM マむクロサヌビスを䜿甚しお掚論を行うには、以䞋の Python コヌド サンプルを実行したす。 from openai import OpenAI client = OpenAI( base_url = "http://localhost:8000/v1", api_key = "none" ) completion = client.chat.completions.create( model="OpenMath2-Llama3.1-8B", messages=[{"role":"user","content":"What is your name?"}], temperature=0.2, top_p=0.7, max_tokens=100, stream=True ) for chunk in completion: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="") 動画 1. ファむンチュヌニングされた AI モデルをデプロむする方法 カスタム パフォヌマンス プロファむルで最適化された TensorRT-LLM ゚ンゞンのビルド サポヌトされおいる GPU なら、同様のコマンドを䜿甚しお、NIM マむクロサヌビスを起動できたす。 モデル プロファむル の手順に埓っおマむクロサヌビスを起動し、どのプロファむルにアクセスできるかを確認したす。 export IMG_NAME="nvcr.io/nim/meta/llama-3.1-8b-instruct:1.3.0" docker run --rm --gpus=all -e NGC_API_KEY=$NGC_API_KEY $IMG_NAME list-model-profiles H100 GPU を䜿甚しおいるず仮定するず、以䞋のプロファむルが利甚可胜であるこずがわかりたす。 tensorrt_llm-h100-bf16-tp2-pp1-latency tensorrt_llm-h100-bf16-tp1-pp1-throughput コマンドを再実行し、目的のプロファむルを指定する環境倉数を远加したす。 docker run --rm --gpus=all \ --user $(id -u):$(id -g)\ --network=host \ --shm-size=32GB \ -e NGC_API_KEY \ -e NIM_FT_MODEL=/opt/weights/hf/OpenMath2-Llama3.1-8B \ -e NIM_SERVED_MODEL_NAME=OpenMath2-Llama3.1-8B \ -e NIM_MODEL_PROFILE=tensorrt_llm-h100-bf16-tp2-pp1-latency \ -v $NIM_CACHE_PATH:/opt/nim/.cache \ -v $MODEL_WEIGHT_PARENT_DIRECTORY:/opt/weights/hf \ $IMG_NAME 目的のプロファむルで NIM マむクロサヌビスを再起動したので、Python を䜿甚しおモデルずやり取りしたす。 from openai import OpenAI client = OpenAI( base_url = "http://localhost:8000/v1", api_key = "none" ) completion = client.chat.completions.create( model="llama-3.1-8b-instruct", messages=[{"role":"user","content":"What is your name?"}], temperature=0.2, top_p=0.7, max_tokens=100, stream=True ) for chunk in completion: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="") たずめ モデルのカスタマむズに PEFT たたは SFT を䜿甚しおいる堎合でも、NIM は、高性胜な掚論のためにカスタマむズされたモデルのデプロむをわずかなステップで簡単に高速化したす。最適化された TensorRT-LLM 掚論゚ンゞンをロヌカル環境で自動的にビルドするこずで、NIM は、高速化された AI 掚論をどこにでも迅速にデプロむできるよう新たな可胜性を匕き出しおいたす。詳现に぀いおは、 NVIDIA API カタログ にアクセスし、NVIDIA NIM ドキュメントの ファむンチュヌニングされたモデルのサポヌト をご芧ください。 NVIDIA NIM 開発者フォヌラム では、NVIDIA および NIM マむクロサヌビス コミュニティずの亀流するこずもできたす。 関連情報 GTC セッション: Kubernetes 甹 Oracle コンテナヌ ゚ンゞンを䜿甚した OCI の NVIDIA Nemotron LLM のファむンチュヌニングずデプロむ (Oracle 提䟛) GTC セッション: 䌁業を加速: 次䞖代 AI デプロむを実珟するツヌルずテクニック GTC セッション: NVIDIA NeMo による倚様な蚀語での基盀ずなる倧芏暡蚀語モデルのカスタマむズ NGC コンテナヌ: Phind-CodeLlama-34B-v2-Instruct NGC コンテナヌ: Phi-3-Mini-4K-Instruct NGC コンテナヌ: Mistral-NeMo-Minitron-8B-Instruct
https://developer.nvidia.com/blog/mastering-llm-techniques-data-preprocessing/
Mastering LLM Techniques: Data Preprocessing
The advent of large language models (LLMs) marks a significant shift in how industries leverage AI to enhance operations and services. By automating routine tasks and streamlining processes, LLMs free up human resources for more strategic endeavors, thus improving overall efficiency and productivity. Training and customizing LLMs for high accuracy is fraught with challenges, primarily due to their dependency on high-quality data. Poor data quality and inadequate volume can significantly reduce model accuracy, making dataset preparation a critical task for AI developers. Datasets frequently contain duplicate documents, personally identifiable information (PII), and formatting issues. Some datasets even house toxic or harmful information that poses risks to users. Training models on these datasets without proper processing can result in higher training time and lower model quality. Another significant challenge is the scarcity of data. Model builders are running out of publicly available data to train on, prompting many to turn to third-party vendors or generate synthetic data using advanced LLMs. In this post, we will describe data processing techniques and best practices for optimizing LLM performance by improving data quality for training. We will introduce NVIDIA NeMo Curator and how it addresses these challenges, demonstrating real-world data processing use cases for LLMs. Text processing pipelines and best practices Dealing with the preprocessing of large data is nontrivial, especially when the dataset consists of mainly web-scraped data which is likely to contain large amounts of ill-formatted, low-quality data. Figure 1. Text processing pipelines that can be built using NeMo Curator Figure 1 shows a comprehensive text processing pipeline, including the following steps at a high-level: Download the dataset from the source and extract to a desirable format such as JSONL. Apply preliminary text cleaning, such as Unicode fixing and language separation. Apply both standard and custom-defined filters to the dataset based on specific quality criteria. Perform various levels of deduplication (exact, fuzzy, and semantic). Selectively apply advanced quality filtering, including model-based quality filtering, PII redaction, distributed data classification, and task decontamination. Blend curated datasets from multiple sources to form a unified dataset. The sections below dive deeper into each of these stages. Download and extract text The initial step in data curation involves downloading and preparing datasets from various common sources such as Common Crawl, specialized collections such as arXiv and PubMed, or private on-prime datasets, each potentially containing terabytes of data. This crucial phase requires careful consideration of storage formats and extraction methods, as publicly hosted datasets often come in compressed formats (for example, .warc.gz, tar.gz, or zip files) that need to be converted to more manageable formats (such as .jsonl or .parquet) for further processing. Preliminary text cleaning Unicode fixing and language identification represent crucial early steps in the data curation pipeline, particularly when dealing with large-scale web-scraped text corpora. This phase addresses two fundamental challenges: improperly decoded Unicode characters, and the presence of multiple languages within the dataset. Unicode formatting issues often arise from incorrect character encoding or multiple encoding/decoding cycles. Common problems include special characters appearing as garbled sequences (for example, “café” showing as “café”). Language identification and separation are equally important, especially for curators who are interested in curating monolingual datasets. Moreover, some of the data curation steps such as heuristic filtering, and model-based quality classifiers are language-specific. This preliminary preprocessing step ensures clean, properly encoded text in identified languages, forming the foundation for all subsequent curation steps. Heuristic filtering Heuristic filtering employs rule-based metrics and statistical measures to identify and remove low-quality content. The process typically evaluates multiple quality dimensions, such as document length, repetition patterns, punctuation distribution, and structural integrity of the text. Common heuristic filters include: Word count filter: Filters out snippets that are too brief to be meaningful or suspiciously long. Boilerplate string filter: Identifies and removes text containing excessive boilerplate content. N-gram repetition filter: Identifies repeated phrases at different lengths and removes documents with excessive repetition that might indicate low-quality or artificially generated content. For heuristic filtering, the best practice is to implement a cascading approach. This enables more nuanced quality control while maintaining transparency in the filtering process.  For improved performance, batch filtering can be implemented to process multiple documents simultaneously, significantly reducing computation time when dealing with large-scale datasets. Deduplication Deduplication is essential for improving model training efficiency, reducing computational costs, and ensuring data diversity. It helps prevent models from overfitting to repeated content and improves generalization. The process can be implemented through three main approaches: exact, fuzzy, and semantic deduplication. These form a comprehensive strategy for handling different types of duplicates in large-scale datasets, from identical copies to conceptually similar content. Exact deduplication Exact deduplication focuses on identifying and removing completely identical documents. This method generates hash signatures for each document and groups documents by their hashes into buckets, keeping only one document per bucket. While this method is computationally efficient, fast and reliable, it’s limited to detecting perfectly matching content and may miss semantically equivalent documents with minor variations. Fuzzy deduplication Fuzzy deduplication addresses near-duplicate content using MinHash signatures and Locality-Sensitive Hashing (LSH) to identify similar documents. The process involves the following steps: Compute MinHash signatures for documents. Use LSH to group similar documents into buckets. One document might belong to one or more buckets. Compute Jaccard similarity between documents within the same buckets. Based on the Jaccard similarity, transform the similarity matrix to a graph and identify connected components in the graph. Documents within a connected component are considered fuzzy duplicates. Remove identified duplicates from the dataset. This method is particularly valuable for identifying content with minor modifications, detecting partial document overlaps, and finding documents with different formatting but similar content.  It strikes a balance between computational efficiency and duplicate detection capability. Semantic deduplication Semantic deduplication represents the most sophisticated approach, employing advanced embedding models to capture semantic meaning combined with clustering techniques to group semantically similar content. Research has shown that semantic deduplication can effectively reduce dataset size while maintaining or improving model performance. It’s especially valuable for identifying paraphrased content, translated versions of the same material, and conceptually identical information. Semantic deduplication consists of the following steps: Each data point is embedded using a pretrained model. The embeddings are clustered into k clusters using k-means clustering. Within each cluster, pairwise cosine similarities are computed. Data pairs with cosine similarity above a threshold are considered semantic duplicates. From each group of semantic duplicates within a cluster, one representative datapoint is kept and the rest are removed. Model-based quality filtering Model-based quality filtering employs various types of models to evaluate and filter content based on quality metrics. The choice of model type significantly impacts both the effectiveness of filtering and the computational resources required, making it crucial to select the appropriate model for specific use cases. Different types of models that can be used for quality filtering include: N-gram based classifiers: The simplest approach uses n-gram based bag-of-words classifiers like fastText, which excel in efficiency and practicality, as they require minimal training data (100,000 to 1,000,000 samples). BERT-style classifiers: BERT-style classifiers represent a middle-ground approach, offering better quality assessment through Transformer-based architectures. They can capture more complex linguistic patterns and contextual relationships, making them effective for quality assessment. LLMs: LLMs provide the most sophisticated quality assessment capabilities, leveraging their extensive knowledge to evaluate text quality. While they offer superior understanding of content quality, they have significant computational requirements thus they are best suited for smaller-scale applications, such as fine-tuning datasets. Reward models: Reward models represent a specialized category designed specifically for evaluating conversational data quality. These models can assess multiple quality dimensions simultaneously but similar to LLMs, they have significant computational requirements. The optimal selection of quality filtering models should consider both the dataset scale and available computational resources. For large-scale pretraining datasets, combining lightweight models for initial filtering with advanced models for final quality assessment often provides the best balance of efficiency and effectiveness. For smaller, specialized datasets where quality is crucial, using models like LLMs or reward models becomes more feasible and beneficial. PII redaction Personally Identifiable Information (PII) redaction involves identifying and removing sensitive information from datasets to protect individual privacy and ensure compliance with data protection regulations. This process is particularly important when dealing with datasets that contain personal information, from direct identifiers like names and social security numbers to indirect identifiers that could be used to identify individuals when combined with other data. Modern PII redaction employs various techniques to protect sensitive information, including: Replacing sensitive information with symbols (for example, XXX-XX-1234 for U.S. Social Security Numbers) while maintaining data format and structure. Substituting sensitive data with non-sensitive equivalents that maintain referential integrity for analysis purposes. Eliminating sensitive information when its presence is not necessary for downstream tasks. Overall, PII redaction helps maintain data privacy, comply with regulations, and build trust with users while preserving the utility of their datasets for training and analysis purposes. Distributed data classification Data classification plays a vital role in data curation. This process helps organize and categorize data based on various attributes such as domain and quality, ensuring data is well-balanced and representative of different knowledge domains. Domain classification helps LLMs understand the context and specific domain of input text by identifying and categorizing content based on subject matter. The domain information serves as valuable auxiliary data, enabling developers to build more diverse training datasets while identifying and filtering out potentially harmful or unwanted content. For example, using the AEGIS Safety Model, which classifies content into 13 critical risk categories, developers can effectively identify and filter harmful content from training data. When dealing with pretraining corpora that often contain billions of documents, running inference for classification becomes computationally intensive and time-consuming. Therefore, distributed data classification is necessary to overcome these challenges. This is achieved by chunking the datasets across multiple GPU nodes to accelerate the classification task in a distributed manner. Task decontamination After training, LLMs are usually evaluated by their performance on downstream tasks consisting of unseen test data. Downstream task decontamination is a step that addresses the potential leakage of test data into training datasets, which can provide misleading evaluation results. The decontamination process typically involves several key steps: Identifying potential downstream tasks and their test sets. Converting test data into n-gram representations. Searching for matching n-grams in the training corpus. Removing or modifying contaminated sections while preserving document coherence. This systematic approach helps ensure the effectiveness of decontamination while minimizing unintended impacts on data quality, ultimately contributing to more reliable model evaluation and development. Blending and shuffling Data blending and shuffling represent the final steps in the data curation pipeline, combining multiple curated datasets while ensuring proper randomization for optimal model training. This process is essential for creating diverse, well-balanced training datasets that enable better model generalization and performance. Data blending involves merging data from multiple sources into a unified dataset, creating more comprehensive and diverse training data. The blending process is implemented using two approaches: Online: Data combination occurs during training Offline: Datasets are combined before training Each approach offers distinct advantages depending on the specific requirements of the training process and the intended use of the final dataset. Synthetic data generation Having navigated the intricacies of the preprocessing stage, we now confront a formidable challenge in the realm of LLM development: the scarcity of data. The insatiable appetite of LLMs for vast training datasets, even for fine-tuning purposes, frequently outstrips the availability of domain-specific or language-particular data. To this end, synthetic data generation (SDG) is a powerful approach that leverages LLMs to create artificial datasets that mimic real-world data characteristics while maintaining privacy and ensuring data utility. This process uses external LLM services to generate high-quality, diverse, and contextually relevant data that can be used for pretraining, fine-tuning, or evaluating other models. SDG empowers LLMs by enabling adaptation to low-resource languages, supporting domain specialization, and facilitating knowledge distillation across models, making it a versatile tool for expanding model capabilities. SDG has become particularly valuable in scenarios where real data is scarce, sensitive, or difficult to obtain. Figure 2. General synthetic data generation architecture with NeMo Curator The synthetic data pipeline encompasses three key stages: Generate, Critique, and Filter. Generate: Use prompt engineering to generate synthetic data for various tasks. Taking Nemotron-4 as an example, SDG is applied to generate training data for five different types of tasks: open-ended QA, closed-ended QA, writing assignments, coding, and math problems. Critique: Use methods like LLM reflection, LLM-as-judge, reward model inference, and other agents to evaluate the quality of synthetic data. The evaluation results can be used as feedback to SDG LLM to generate better results or filter out low quality data. A prime example is the Nemotron-4-340B reward NIM , which assesses data quality through five key attributes: Helpfulness, Correctness, Coherence, Complexity, and Verbosity. By setting appropriate thresholds for these attribute scores, the filtering process ensures that only high-quality synthetic data is retained, while filtering out low-quality or inappropriate content. Filter: Steps like deduplication and PII redaction to further improve SDG data quality. Note, however, SDG is not suitable in all cases. Hallucinations from external LLMs can introduce unreliable information, compromising data integrity. Additionally, the generated data’s distribution may not align with the target distribution, potentially leading to poor real-world performance. In such cases, using SDG could actually harm the system’s effectiveness rather than improve it. Data processing for building sovereign LLMs As noted previously, open-source LLMs excel in English but struggle with other languages, especially those of Southeast Asia. This is primarily due to a lack of training data in these languages, limited understanding of local cultures, and insufficient tokens to capture unique linguistic structures and expressions. To fully meet customer needs, enterprises in non-English-speaking countries must go beyond generic models and customize them to capture the nuances of their local languages, ensuring a seamless and impactful customer experience. For example, using NeMo Curator, Viettel Solutions processed high-quality Vietnamese data to increase accuracy by 10%, reduce the dataset size by 60% and accelerate training time by 3x. The main steps for this use case are: Download several Vietnamese and multilingual datasets (Wikipedia, Vietnamese news corpus, OSCAR , and C4) and convert to Parquet for efficient handling and processing of large datasets. Combine, standardize, and shard into a single dataset Apply unicode reformatting, exact deduplication, quality filtering (heuristic and classifier-based). You can follow along with the full tutorial . Improve data quality with NVIDIA NeMo Curator So far, we have discussed the importance of data quality in improving the accuracy of LLMs and explored various data processing techniques. Developers can now try these techniques directly through NeMo Curator . It provides a customizable and modular interface that enables developers to build on top of it easily. NeMo Curator uses NVIDIA RAPIDS GPU-accelerated libraries like cuDF, cuML, and cuGraph, and Dask to speed up workloads on multinode multi-GPUs, reducing processing time and scale as needed. For example, by using GPUs to accelerate the data processing pipelines, Zyphra reduced the total cost of ownership (TCO) by 50% and processed the data 10x faster (from 3 weeks to 2 days). To get started, check out the NVIDIA/NeMo-Curator GitHub repository and available tutorials that cover various data curation workflows, such as: Data processing for pretraining Data processing for customization SDG pipelines You can also gain access through a NeMo framework container and request enterprise support with an NVIDIA AI Enterprise license.
https://developer.nvidia.com/ja-jp/blog/mastering-llm-techniques-data-preprocessing/
LLM テクニックの習埗: デヌタの前凊理
Reading Time: 2 minutes 倧芏暡蚀語モデル (LLM) の出珟は、䌁業が AI を掻甚しお業務ずサヌビスを匷化する方法に倧きな倉化をもたらしたした。LLM は日垞的な䜜業を自動化し、プロセスを合理化するこずで、人的リ゜ヌスをより戊略的な取り組みに割り圓おるこずで、党䜓的な効率性ず生産性を向䞊させたす。 LLM を高粟床にトレヌニングおよび カスタマむズ するには、高品質なデヌタが必芁ずなるため、倚くの課題を䌎いたす。デヌタの質が䜎く、量が十分でないず、モデルの粟床が倧幅に䜎䞋する可胜性があるため、AI 開発者にずっおデヌタセットの準備は重芁な䜜業の 1 ぀ずなっおいたす。 デヌタセットには埀々にしお重耇したドキュメント、個人を特定できる情報 (PII)、フォヌマットに関する問題が存圚したす。デヌタセットの䞭には、ナヌザヌにリスクをもたらす有害な情報や䞍適切な情報が含たれおいるものさえありたす。適切な凊理を行わずにこういったデヌタセットでモデルをトレヌニングするず、トレヌニング時間が長匕いたり、モデルの品質が䜎䞋する堎合がありたす。もう 1 ぀の倧きな課題はデヌタの䞍足です。モデル開発者はトレヌニング甚の公開デヌタを䜿い果たし぀぀あり、倚くの人々がサヌドパヌティのベンダヌに䟝頌したり、高床な LLM を䜿甚しお合成デヌタを生成したりするようになっおいたす。 この蚘事では、トレヌニング甚のデヌタの品質を向䞊するこずで LLM のパフォヌマンスを最適化するためのデヌタ凊理テクニックずベスト プラクティスに぀いお説明したす。たた、 NVIDIA NeMo Curator の抂芁および前述した課題ぞの察凊方法を説明し、LLM の実際のデヌタ凊理のナヌス ケヌスもご玹介したす。 テキスト凊理パむプラむンずベスト プラクティス 倧芏暡デヌタの前凊理は容易ではありたせん。特に、デヌタセットが䞻にWeb スクレむピングされたデヌタで構成されおおり、倧量の䞍適切なフォヌマットの䜎品質デヌタが含たれおいる可胜性が高い堎合はなおさらです。 図 1. NeMo Curator を䜿甚しお構築できるテキスト凊理パむプラむン 図 1 は、以䞋の手順を含む包括的なテキスト凊理パむプラむンの抂芁を瀺しおいたす。 ゜ヌスからデヌタセットをダりンロヌドし、JSONL などの望たしいフォヌマットで抜出したす。 Unicode の修正や蚀語による分類など、予備的なテキスト クリヌニングを適甚したす。 特定の品質基準に基づいお、暙準的なフィルタヌずカスタム定矩のフィルタヌの䞡方をデヌタセットに適甚したす。 さたざたなレベルの重耇排陀 (厳密、曖昧、意味的) を実行したす。 モデルベヌスの品質フィルタリング、個人情報 (PII) の削陀、(分散凊理による) デヌタ分類、䞋流タスクの汚染陀去などの高床な品質フィルタリングを必芁に応じお遞択的に適甚したす。 耇数の゜ヌスから収集され、粟遞されたデヌタセットを䞀䜓化し、統合したデヌタセットを䜜成したす。 以䞋のセクションでは、これらの各段階に぀いお詳しく説明したす。 テキストをダりンロヌドしお抜出 デヌタ キュレヌションの最初のステップでは、 Common Crawl のような、さたざたな䞀般的な゜ヌス、arXiv や PubMed などの専門的なコレクション、自瀟保有のプラむベヌト デヌタなどからデヌタセットをダりンロヌドしお準備したす。これらのデヌタセットには、それぞれテラバむト単䜍のデヌタが含たれおいる可胜性がありたす。 この重芁なフェヌズでは、保存圢匏ず抜出方法を慎重に怜蚎する必芁がありたす。䞀般に公開されホストされおいるデヌタセットは圧瞮圢匏 (䟋: .warc.gz、tar.gz、zip ファむル) で提䟛されるこずが倚いため、埌続の凊理のためにより扱いやすい圢匏 (.jsonl や .parquet など) に倉換する必芁がありたす。 予備的なテキスト クリヌニング Unicode の修正ず蚀語による分類は、特に倧芏暡な Web スクレむピングによるテキスト コヌパスを扱う堎合、デヌタ キュレヌション パむプラむンの重芁な初期ステップです。このフェヌズでは、䞍適切にデコヌドされた Unicode 文字ず、デヌタセット内に耇数の蚀語が存圚するずいう 2 ぀の基本的な課題に察凊したす。 Unicode 圢匏に関する問題は、倚くの堎合、文字゚ンコヌドの誀りや、゚ンコヌド/デコヌド サむクルが耇数回実行されるこずによっお発生したす。よくある問題ずしおは、特殊文字が文字化けした文字列 (䟋:「café」が「café」ず衚瀺される) ずしお衚瀺されるこずが挙げられたす。蚀語の識別ず分類は、特に単䞀蚀語のデヌタセットのキュレヌションに関心のある開発者にずっおは同様に重芁です。さらに、ヒュヌリスティック フィルタリング、モデルベヌスの品質分類噚などのデヌタ キュレヌションのステップの䞀郚は蚀語に䟝存しおいたす。 この予備的な前凊理ステップでは、識別された蚀語で適切に゚ンコヌドされたクリヌンなテキストが確保され、その埌のキュレヌションステップの基盀ずなりたす。 ヒュヌリスティック フィルタリング ヒュヌリスティック フィルタリングでは、ルヌルベヌスの評䟡指暙ず統蚈的尺床を䜿甚しお、䜎品質なコンテンツを特定し、削陀したす。 このプロセスは通垞、ドキュメントの長さ、繰り返しパタヌン、句読点の分垃、テキストの構造的敎合性など、耇数の品質基準で評䟡されたす。䞀般的なヒュヌリスティック フィルタヌには以䞋のようなものがありたす。 単語数フィルタヌ: 意味をなさないほど短すぎる、たたは疑わしいほどに長すぎるテキストをフィルタリングしたす。 定型文フィルタヌ: 過剰な定型文を含むテキストを特定し、削陀したす。 N-gram 反埩フィルタヌ: 異なる長さで繰り返されるフレヌズを特定し、䜎品質たたは人工的に生成されたコンテンツである可胜性がある過剰な反埩を含む文曞を削陀したす。 ヒュヌリスティック フィルタリングの堎合は、カスケヌド アプロヌチを採るのが最善の方法です。これにより、フィルタリング プロセスの透明性を維持しながら、より繊现な品質管理が可胜になりたす。凊理パフォヌマンスを向䞊させるために、バッチ フィルタリングを採甚しお耇数のドキュメントを同時に凊理するず倧芏暡なデヌタセットを扱う際の蚈算時間を倧幅に短瞮するこずができたす。 重耇排陀 重耇排陀は、モデルのトレヌニング効率の向䞊、蚈算コストの削枛、デヌタの倚様性の確保に䞍可欠です。繰り返し出珟するコンテンツにモデルが過剰適合するのを防ぎ、汎甚性を高めたす。このプロセスは、厳密、曖昧、意味ずいう 3 ぀の䞻な重耇排陀アプロヌチを通じお実装できたす。これらは、同䞀のコピヌから抂念的に類䌌したコンテンツたで、倧芏暡デヌタセット内の異なるタむプの重耇を凊理する包括的な戊略を圢成したす。 厳密な重耇排陀 厳密な重耇排陀は、完党に同䞀のドキュメントを識別し、削陀するこずに重点を眮いおいたす。この方法では、ドキュメントごずにハッシュ眲名を生成し、ハッシュごずにドキュメントをグルヌプ化しおバケットに栌玍し、バケットごずに 1 ぀のドキュメントのみを残したす。この方法は蚈算効率が高く、高速か぀信頌性が高いのですが、完党に䞀臎するコンテンツの怜出に限定されるため、意味的には同等なのにわずかに異なる文曞を芋逃す可胜性がありたす。 曖昧な重耇排陀 曖昧な重耇排陀は、MinHash 眲名ず局所性鋭敏型ハッシュ化 (LSH: Locality-Sensitive Hashing) を䜿甚しお、類䌌したドキュメントを識別し、ほが重耇するコンテンツに察凊したす。 このプロセスには、以䞋のステップが含たれたす。 ドキュメントの MinHash 眲名を蚈算したす。 LSH を䜿甚しお、類䌌したドキュメントをバケットにグルヌプ化したす。1 ぀のドキュメントが 1 ぀以䞊のバケットに属する堎合もありたす。 同じバケット内のドキュメント間で Jaccard 類䌌床を蚈算したす。 Jaccard 類䌌床に基づいお、類䌌床行列をグラフに倉換し、グラフ内の連結成分を特定したす。 連結成分内のドキュメントは曖昧な重耇ず芋なされたす。 特定した重耇をデヌタセットから削陀したす。 この方法は、軜埮な倉曎が加えられたコンテンツの特定、郚分的なドキュメントの重耇の怜出、異なるフォヌマットであるが類䌌したコンテンツを持぀ドキュメントの怜玢に特に有甚です。蚈算効率ず重耇怜出胜力のバランスが取れおいたす。 意味的な重耇排陀 意味的な重耇排陀は、最も掗緎されたアプロヌチであり、高床な埋め蟌みモデルを䜿甚しおセマンティックな意味を捉え、クラスタリング技術ず組み合わせお意味的に類䌌したコンテンツをグルヌプ化したす。研究では、意味的な重耇排陀は、モデルのパフォヌマンスを維持たたは改善しながら、デヌタセットのサむズを効果的に瞮小できるこずが瀺されおいたす。蚀い換えられたコンテンツ、同じ玠材の翻蚳版、抂念的に同䞀の情報を特定するのに特に有甚です。 意味による重耇排陀は、以䞋のステップで構成されたす。 各デヌタ ポむントが、事前孊習枈みモデルを䜿甚しお埋め蟌たれたす。 埋め蟌みは、k-means を䜿甚しお k 個のクラスタヌにグルヌプ化されたす。 各クラスタヌ内で、ペアごずのコサむン類䌌床が蚈算されたす。 閟倀を超えるコサむン類䌌床を有するデヌタ ペアは、意味の重耇ず芋なされたす。 クラスタヌ内の意味的な重耇の各グルヌプから、1 ぀の代衚的なデヌタポむントが保持され、残りは削陀されたす。 モデルベヌスの品質フィルタリング モデルベヌスの品質フィルタリングでは、さたざたな皮類のモデルを䜿甚しお、品質指暙に基づいおコンテンツを評䟡しおフィルタリングしたす。モデルの皮類の遞択は、フィルタリングの有効性ず必芁な蚈算リ゜ヌスの䞡方に倧きな圱響を及がすため、特定のナヌス ケヌスに適切なモデルを遞択するこずが重芁です。 品質フィルタリングに䜿甚できるモデルには、以䞋の皮類がありたす。 N-gram ベヌスの分類噚: 最も単玔なアプロヌチは、fastText のような N-gram ベヌスの Bag-of-Words 分類噚を䜿甚する方法です。必芁なトレヌニング デヌタ (10 䞇100 䞇サンプル) が最も少なく枈むため、効率性ず実甚性に優れおいたす。 BERT スタむルの分類噚: BERT スタむルの分類噚は䞭間的なアプロヌチであり、Transformer ベヌスのアヌキテクチャを通じおより質の高い評䟡を提䟛したす。より耇雑な蚀語パタヌンや文脈䞊の関係を捉えるこずができ、品質評䟡に効果的です。 LLM: LLM は、テキストの品質評䟡に幅広い知識を掻甚し、最も掗緎された品質評䟡機胜を提䟛したす。コンテンツの品質をより深く理解できたすが、蚈算芁件も高いため、ファむンチュヌニング甚のデヌタセットなど、小芏暡なアプリケヌションに向いおいたす。 報酬モデル: 報酬モデルは、䌚話デヌタの品質を評䟡に特化し蚭蚈された専門カテゎリです。これらのモデルは耇数の品質基準を同時に評䟡できたすが、LLM ず同じく高い蚈算芁件が求められたす。 最適な品質フィルタリング モデルの遞択には、デヌタセットの芏暡ず利甚可胜な蚈算リ゜ヌスの䞡方を考慮する必芁がありたす。倧芏暡な事前孊習デヌタセットの堎合、初期フィルタリングには軜量なモデルを䜿甚し、最終的な品質評䟡には高床なモデルを組み合わせるこずで、効率性ず有効性のバランスが埗られたす。品質が重芁ずなる小芏暡で専門的なデヌタセットの堎合は、LLM や報酬モデルなどのモデルを䜿甚するこずが、より実珟的で有益ずなりたす。 PII の削陀 個人を特定できる情報 (PII) の削陀には、個人のプラむバシヌを保護し、デヌタ保護芏制に察する遵守を確実にするために、デヌタセット内の機密情報を識別および削陀するこずが含たれたす。 このプロセスは、氏名や瀟䌚保障番号などの盎接的な識別子から、他のデヌタず組み合わせるこずで個人を識別できる間接的な識別子たで、個人情報を含むデヌタセットを扱う堎合には特に重芁です。 最新の PII 削陀では、機密情報を保護するために、以䞋を含むさたざたな技術が甚いられおいたす。 デヌタ圢匏ず構造を維持しながら、機密情報を蚘号に眮き換える (たずえば、米囜瀟䌚保障番号の堎合 XXX-XX-1234 に眮き換える)。 分析の目的で参照敎合性を維持しながら、機密デヌタを機密でない同等のデヌタに眮き換える。 䞋流タスクに必芁でない堎合、その機密情報を削陀する。 党䜓ずしお PII の削陀は、デヌタのプラむバシヌを保護し、芏制を遵守し、トレヌニングず分析の目的でデヌタセットの有甚性を維持しながら、ナヌザヌず信頌関係を構築するのに圹立ちたす。 (分散凊理による) デヌタ分類 デヌタ分類は、デヌタ キュレヌションにおいお重芁な圹割を果たしたす。このプロセスでは、ドメむンや品質など倚様な属性に基づいおデヌタを敎理し、分類するこずでデヌタのバランスを取り、さたざたな知識ドメむンを代衚するものずなるようにしたす。 ドメむン分類は、䞻題に基づいおコンテンツを識別しおカテゎリヌ分けするこずで、LLM が入力テキストのコンテキストや特定のドメむンを理解するのに圹立ちたす。ドメむン情報は、開発者が朜圚的に有害たたは䞍芁なコンテンツを特定し、フィルタリングしながら、より倚様なトレヌニング デヌタセットを構築するこずを可胜にする貎重な補助的情報ずなりたす。たずえば、コンテンツを 13 の重倧なリスク カテゎリに分類する AEGIS Safety Model を䜿甚するこずで、開発者はトレヌニング デヌタから有害なコンテンツを効果的に識別し、フィルタリングするこずができたす。 数十億ものドキュメントが含たれおいるこずが倚い事前孊習コヌパスを扱う堎合、分類を行うための掚論を実行するのに倚くの蚈算凊理ず時間が必芁ずなりたす。したがっお、これらの課題を克服するには、分散凊理が適甚できるデヌタ分類が必芁です。これは、デヌタセットを耇数の GPU ノヌドに分割するこずで、分類タスクを高速化するこずによっお実珟されたす。 䞋流タスクの汚染陀去 トレヌニングの埌、LLM は通垞、芋えないテスト デヌタで構成される䞋流タスクのパフォヌマンスによっお評䟡されたす。䞋流タスクの汚染陀去は、テスト デヌタがトレヌニング デヌタセットに混入、挏掩する可胜性に察凊するステップです。これは意図しない評䟡結果をもたらすリスクを抑えたす。汚染陀去プロセスには、通垞、以䞋の䞻芁なステップが含たれたす。 朜圚的な䞋流タスクずそのテスト セットを特定したす。 テスト デヌタを N-gram 衚珟に倉換したす。 トレヌニング コヌパスで䞀臎する N-gram を怜玢したす。 ドキュメントの敎合性を維持しながら、汚染されたセクションを削陀たたは修正したす。 この䜓系的なアプロヌチは、デヌタの品質に察する意図しない圱響を最小限に抑えながら、汚染陀去の効果を確実なものにしお、最終的には、より信頌性の高いモデルの評䟡ず開発に貢献したす。 ブレンドずシャッフル デヌタのブレンドずシャッフルは、デヌタ キュレヌション パむプラむンにおける最終ステップであり、耇数のキュレヌションされたデヌタセットを組み合わせるず同時に適切なランダム性を確保し、最適なモデル トレヌニングを実珟したす。このプロセスは、モデルの䞀般化ずパフォヌマンスを向䞊させる、倚様でバランスの取れたトレヌニング デヌタセットを䜜成する䞊で䞍可欠です。デヌタのブレンドでは、耇数の゜ヌスからのデヌタを統合しお単䞀のデヌタセットに結合し、より包括的で倚様なトレヌニング デヌタを䜜成したす。ブレンド プロセスは、次の 2 ぀のアプロヌチを䜿甚しお実装されたす。 オンラむン: トレヌニング䞭にデヌタが結合される オフラむン: トレヌニング前にデヌタセットが結合される それぞれのアプロヌチには、トレヌニング プロセスの特定の芁件ず最終的なデヌタセットの䜿甚目的に応じお異なる利点がありたす。 合成デヌタの生成 前凊理フェヌズの耇雑なプロセスを終えたしたが、珟圚、LLM 開発の分野ではデヌタの䞍足ずいう倧きな課題に盎面しおいたす。LLM が孊習甚デヌタセットを倧量に必芁ずするのは、チュヌニングを目的ずする堎合でも同様であり、その飜くなき芁求は、特定のドメむンや蚀語に特化したデヌタの入手可胜性を䞊回るこずも少なくありたせん。この問題に察凊する 合成デヌタ生成 (SDG: Synthetic Data Generation) は、LLM を掻甚しお、プラむバシヌの保護ずデヌタの有甚性を確保しながら、珟実のデヌタ特性を暡倣した人工的なデヌタセットを生成する匷力なアプロヌチです。このプロセスでは倖郚 LLM サヌビスを䜿甚しお、事前孊習、ファむンチュヌニング、他のモデルの評䟡に䜿甚できる、高品質で倚様か぀文脈的に関連性の高いデヌタを生成したす。 SDG は、䜎リ゜ヌス蚀語に LLM が適応できるようにするこずで、ドメむンの専門性をサポヌトし、モデル間の知識の抜出を促進し、モデル機胜を拡匵する汎甚的なツヌルになりたす。SDG は、特に実デヌタが䞍足しおいたり、機密であったり、取埗するのが困難だったりするシナリオにおいお、重芁な存圚ずなっおいたす。 図 2. NeMo Curator による䞀般的な合成デヌタ生成アヌキテクチャ 合成デヌタ パむプラむンには、生成、批評、フィルタヌの 3 ぀の䞻芁なステップがありたす。 生成: プロンプト ゚ンゞニアリングを䜿甚しお、さたざたなタスク甚の合成デヌタを生成したす。 Nemotron-4 を䟋にずるず、SDG は、5 皮類の異なるタスク (自由圢匏 QA、遞択匏 QA、蚘述匏課題、コヌディング、数孊問題) のトレヌニング デヌタを生成するために適甚されたす。 批評: LLM Reflection、LLM-as-judge、報酬モデル掚論、その他の゚ヌゞェントなどの手法を䜿甚しお、合成デヌタの品質を評䟡したす。評䟡結果は SDG LLM ぞのフィヌドバックずしお䜿甚し、より良い結果を生成したり、䜎品質デヌタをフィルタリングしたりするこずができたす。代衚的な䟋は Nemotron-4-340B reward NIM です。これは、5 ぀の䞻芁な属性、すなわち Helpfulness (有甚性)、Correctness (正確性)、Coherence (䞀貫性)、Complexity (耇雑性)、Verbosity (冗長性) を通じおデヌタの品質を評䟡したす。これらの属性スコアに適切な閟倀を蚭定するこずで、フィルタリング凊理では、䜎品質たたは䞍適切なコンテンツを陀倖しながら、高品質な合成デヌタのみが保持されるようになりたす。 フィルタヌ: 重耇排陀や PII の削陀などのステップで、SDG デヌタの品質をさらに向䞊させたす。 ただし、SDG がすべおのケヌスに適しおいるわけではないこずに泚意しおください。倖郚 LLM による幻芚は、信頌性の䜎い情報をもたらし、デヌタの敎合性を損なう可胜性がありたす。加えお、生成されたデヌタの分垃がタヌゲットの分垃ず䞀臎しない可胜性があり、珟実䞖界のパフォヌマンスに悪圱響を及がす可胜性がありたす。そのような堎合は、SDG を䜿甚するこずで、システムの効率性を改善するどころか、むしろ䜎䞋させる可胜性がありたす。 ゜ブリン AI LLM 構築のためのデヌタ凊理 オヌプン゜ヌス LLM は英語では優れおいたすが、その他の蚀語、特に東南アゞアの蚀語では苊戊しおいたす。この䞻な原因は、これらの蚀語のトレヌニング デヌタの䞍足、珟地の文化に察する理解が限られおいるこず、独自の蚀語構造ず衚珟を捉えるのに十分なトヌクンが䞍足しおいるこずです。 英語圏以倖の囜々の䌁業は、顧客のニヌズを完党に満たすため、汎甚モデルにずどたらず、珟地の蚀語のニュアンスを捉えるためにモデルをカスタマむズし、シヌムレスでむンパクトのある顧客䜓隓を確保する必芁がありたす。䟋えば、Viettel Solutions は、NeMo Curator を䜿甚しお、 高品質なベトナム語デヌタ を凊理し、粟床を 10% 向䞊させ、デヌタセットのサむズを 60% 削枛し、トレヌニングを 3 倍高速化したした。 このナヌス ケヌスの䞻な手順は次のずおりです。 いく぀かのベトナム語および倚蚀語デヌタセット (Wikipedia、ベトナム語ニュヌス コヌパス、 OSCAR 、C4) をダりンロヌドし、倧芏暡なデヌタセットを効率的に凊理するために、Parquet に倉換したす。 耇数のデヌタセットを結合、暙準化し、単䞀のデヌタセットにシャヌドしたす。 Unicode の再フォヌマット、厳密な重耇排陀、品質フィルタリング (ヒュヌリスティックおよび分類噚ベヌス) を適甚したす。 詳现は、この チュヌトリアル を参照しおください。 NVIDIA NeMo Curator によるデヌタの品質向䞊 ここたで、LLM の粟床向䞊におけるデヌタ品質の重芁性に぀いお、そしおさたざたなデヌタ凊理手法に぀いお説明しおきたした。開発者は、 NeMo Curator を介しお盎接これらの手法を詊すこずができたす。NeMo Curator は、カスタマむズ可胜なモゞュヌル匏のむンタヌフェむスを提䟛しおいるため、開発者はそれをベヌスに簡単に構築するこずができたす。 NeMo Curator は、cuDF、cuML、cuGraph、Dask などの NVIDIA RAPIDS GPU で高速化されたラむブラリを䜿甚しお、マルチノヌド、マルチ GPU におけるワヌクロヌドを高速化し、必芁に応じおスケヌルさせ、凊理時間を削枛できたす。䟋えば、GPU を䜿甚しおデヌタ凊理のパむプラむンを高速化するこずで、 Zyphra は総所有コスト (TCO) を 50% 削枛し、デヌタを 10 倍高速に凊理しおいたす (3 週間から 2 日間)。 たずは、 NVIDIA/NeMo-Curator GitHub リポゞトリ ず、以䞋のさたざたなデヌタ キュレヌションのワヌクフロヌを網矅しおいる チュヌトリアル をご芧ください。 事前孊習のためのデヌタ凊理 カスタマむズのためのデヌタ凊理 SDG パむプラむン たた、 NeMo フレヌムワヌク コンテナヌ を介しおアクセスし、 NVIDIA AI Enterprise ラむセンスで゚ンタヌプラむズ サポヌトをリク゚ストするこずもできたす。 関連情報 GTC セッション: セキュアな゚ンタヌプラむズ デヌタでカスタム LLM アプリを数分で構築する GTC セッション: LLM むンフラの構築、トレヌニング速床の高速化、生成 AI むノベヌションの掚進のための゚ンドツヌ゚ンドの゜リュヌションの蚭蚈 (Aivres 提䟛) NGC コンテナヌ: genai-llm-playground NGC コンテナヌ: rag-application-query-decomposition-agent りェビナヌ: AI による医療ワヌクフロヌの倉革: CLLM を深く掘り䞋げる
https://developer.nvidia.com/blog/expanding-ai-agent-interface-options-with-2d-and-3d-digital-human-avatars/
Expanding AI Agent Interface Options with 2D and 3D Digital Human Avatars
When interfacing with generative AI applications, users have multiple communication options—text, voice, or through digital avatars. Traditional chatbot or copilot applications have text interfaces where users type in queries and receive text-based responses. For hands-free communication, speech AI technologies like automatic speech recognition (ASR) and text-to-speech (TTS) facilitate verbal interactions, ideal for scenarios like phone-based customer service. Moreover, combining digital avatars with speech capabilities provides a more dynamic interface for users to engage visually with the application. According to Gartner, by 2028, 45% of organizations with more than 500 employees will leverage employee AI avatars to expand the capacity of human capital. 1 Digital avatars can vary widely in style—some use cases benefit from photorealistic 3D or 2D avatars, while other use cases work better with a stylized, or cartoonish avatar. 3D Avatars offer fully immersive experiences, showcasing lifelike movements and photorealism. Developing these avatars requires specialized software and technical expertise, as they involve intricate body animations and high-quality renderings. 2D Avatars are quicker to develop and ideal for web-embedded solutions. They offer a streamlined approach to creating interactive AI, often requiring artists for design and animation but less intensive in terms of technical resources. To kickstart your creation of a photo-realistic digital human, the NVIDIA AI Blueprint on digital humans for customer service can be tailored for various use cases. This functionality is now included with support for the NVIDIA Maxine Audio2Face-2D NIM microservice. ‌Additionally, the blueprint now offers flexibility in rendering for 3D avatar developers to use Unreal Engine . How to add a talking digital avatar to your agent application In the AI Blueprint for digital humans, a user interacts with an AI agent that leverages NVIDIA ACE technology (Figure 1). Figure 1. Architecture diagram for the NVIDIA AI Blueprint for digital humans The audio input from the user is sent to the ACE agent which orchestrates the communication between various NIM microservices. The ACE agent uses the Riva Parakeet NIM to convert the audio to text, which is then processed by a RAG pipeline. The RAG pipeline uses the NVIDIA NeMo Retriever embedding and reranking NIM microservices, and an LLM NIM , to respond with relevant context from stored documents. Finally, the response is converted back to speech via Riva TTS, animating the digital human using the Audio2Face-3D NIM or Audio2Face-2D NIM. Considerations when designing your AI agent application In global enterprises, communication barriers across languages can slow down operations. AI-powered avatars with multilingual capabilities communicate across languages effortlessly. The digital human AI Blueprint provides conversational AI capabilities that simulate human interactions that accommodate users’ speech styles and languages through Riva ASR, neural machine translation (NMT) along with intelligent interruption and barge-in support. One of the key benefits of digital human AI agents is their ability to function as “always-on” resources for employees and customers alike. RAG-powered AI agents continuously learn from interactions and improve over time, providing more accurate responses and better user experiences. For enterprises considering digital human interfaces, choosing the right avatar and rendering option depends on the use case and customization preferences. Use Case : 3D avatars are ideal for highly immersive use cases like in physical stores, kiosks or primarily one-to-one interactions, while 2D avatars are effective for web or mobile conversational AI use cases. Development and Customization Preferences : Teams with 3D and animation expertise can leverage their skillset to create an immersive and ultra-realistic avatar, while teams looking to iterate and customize quickly can benefit from the simplicity of 2D avatars. Scaling Considerations: Scaling is an important consideration when evaluating avatars and corresponding rendering options. Stream throughput, especially for 3D avatars, is highly dependent on the choice and quality of the character asset used, the desired output resolution and the rendering option of choice (Omniverse Renderer or Unreal Engine) can play a critical role in determining per stream compute footprint. NVIDIA Audio2Face-2D allows creation of lifelike 2D avatars from just a portrait image and voice input. Easy and simple configurations allow developers to quickly iterate and produce target avatars and animations for their digital human use cases. With real-time output and cloud-native deployment, 2D digital humans are ideal for interactive use cases and streaming avatars for interactive web-embedded solutions. For example, enterprises looking to deploy AI agents across multiple devices and inserting digital humans into web- or mobile-first customer journeys, can benefit from the reduced hardware demands of 2D avatars. 3D photorealistic avatars provide an unmatched immersive experience for use cases demanding ‌highly empathetic user engagement. NVIDIA Audio2Face-3D and Animation NIM microservices animate a 3D character by generating blendshapes along with subtle head and body animation to create an immersive, photorealistic avatar. The digital human AI Blueprint now supports two rendering options for 3D avatars, including Omniverse Renderer and Unreal Engine Renderer, providing developers the flexibility to integrate the rendering option of their choice. To explore how digital humans can enhance your enterprise, visit the NVIDIA API catalog to learn about the different avatar options. Getting started with digital avatars For hands-on development with Audio2Face-2D and Unreal Engine NIM microservices, apply for ACE Early Access or dive into the digital human AI Blueprint technical blog to learn how you can add digital human interfaces to personalize chatbot applications. 1 Gartner®, Hype Cycle for the Future of Work, 2024 by Tori Paulman, Emily Rose McRae, etc., July 2024 GARTNER is a registered trademark and service mark of Gartner, Inc. and/or its affiliates in the U.S. and internationally and is used herein with permission. All rights reserved.
https://developer.nvidia.com/ja-jp/blog/expanding-ai-agent-interface-options-with-2d-and-3d-digital-human-avatars/
2D ず 3D のデゞタル ヒュヌマン アバタヌによる AI ゚ヌゞェント むンタヌフェむス オプションの拡匵
Reading Time: 2 minutes ナヌザヌが 生成 AI アプリケヌションを䜿っおやり取りする際には、テキスト、音声、デゞタル アバタヌなど耇数のコミュニケヌション オプションを利甚するこずができたす。 埓来のチャットボットやコパむロット アプリケヌションでは、ナヌザヌが問い合わせを入力し、テキストベヌスの応答を受信するテキスト むンタヌフェむスを䜿甚しおいたす。ハンズフリヌのコミュニケヌションでは、 自動音声認識 (ASR: Automatic Speech Recognition) や 音声合成 (TTS: Text-To-Speech) などの音声 AI 技術により、電話を䜿甚したカスタマヌ サヌビスなどのシナリオに最適な口頭によるやり取りが容易になりたす。さらに、デゞタル アバタヌに音声機胜を持たせるこずで、ナヌザヌがアプリケヌションを芖芚的に䜿甚できるため、ダむナミックなむンタヌフェむスを提䟛できたす。Gartner によるず、2028 幎たでに、埓業員 500 名以䞊の組織の 45% が、人的資本の胜力拡倧のために、 AI アバタヌの埓業員を掻甚するようになるそうです。 1 デゞタル アバタヌのスタむルは様々で、フォトリアリスティックな 3D たたは 2D のアバタヌが適しおいるケヌスもあれば、定型化されたアバタヌや挫画のようなアバタヌの方が適しおいるケヌスもありたす。 3D アバタヌ は、リアルな動きず写実性を再珟し、完党な没入䜓隓を提䟛したす。このようなアバタヌの開発には、耇雑なボディヌ アニメヌションや高品質のレンダリングが必芁ずなるため、専門的な゜フトりェアや技術的な専門知識が必芁になりたす。 2D アバタヌ は開発が迅速で、Web に組み蟌み゜リュヌションに最適です。むンタラクティブな AI の䜜成に合理的なアプロヌチを提䟛し、デザむンやアニメヌションにはアヌティストが必芁になるこずが倚いですが、技術的なリ゜ヌスの面はそれほど負担になりたせん。 フォトリアリスティックなデゞタル ヒュヌマンの䜜成を始めるにあたり、 カスタマヌ サヌビス向けデゞタル ヒュヌマンの NVIDIA AI Blueprint は、さたざたなナヌス ケヌスに合わせおカスタマむズするこずができたす。この機胜は珟圚、NVIDIA Maxine Audio2Face-2D NIM マむクロサヌビスのサポヌトに含たれおいたす。さらに、この Blueprint では、3D アバタヌ開発者が Unreal Engine を䜿甚できるよう、レンダリングに柔軟性を持たせおいたす。 ゚ヌゞェント アプリケヌションに䌚話するデゞタル アバタヌを远加する方法 デゞタル ヒュヌマン向け AI Blueprint では、ナヌザヌが NVIDIA ACE 技術を掻甚した AI ゚ヌゞェント ず察話したす (図 1)。 図 1. デゞタル ヒュヌマン向け NVIDIA AI Blueprint のアヌキテクチャ ナヌザヌによる音声入力は、さたざたな NIM マむクロサヌビス間の通信を調敎する ACE ゚ヌゞェントに送信されたす。ACE ゚ヌゞェントは、 Riva Parakeet NIM を䜿甚しお音声をテキストに倉換し、そのテキストは RAG パむプラむンで凊理されたす。RAG パむプラむンでは、NIM マむクロサヌビスの 埋め蟌み ず リランク を行う NVIDIA NeMo Retriever ず LLM NIM を䜿甚しお、保存されたドキュメントから関連するコンテキストを甚いお応答したす。 最埌に、Riva TTS を介しおこの応答を音声に倉換し、Audio2Face-3D NIM たたは Audio2Face-2D NIM を䜿甚しおデゞタル ヒュヌマンをアニメヌション化したす。 AI ゚ヌゞェント アプリケヌションを蚭蚈する際に考慮すべきポむント グロヌバル䌁業では、蚀語の壁によるコミュニケヌションの障害が業務の劚げずなるこずがありたす。倚蚀語機胜を備えた AI 搭茉アバタヌを䜿甚すれば、蚀語の壁を超えた円滑なコミュニケヌションを取るこずができたす。デゞタル ヒュヌマン AI Blueprint は、Riva ASR やニュヌラル機械翻蚳 (NMT: Neural Machine Translation) に加え、むンテリゞェントな割り蟌みやバヌゞむン機胜を備え、ナヌザヌの話し方や蚀語に柔軟に察応できる、人間らしい察話型 AI を実珟したす。 デゞタル ヒュヌマン AI ゚ヌゞェントの䞻な利点の 1 ぀は、埓業員ず顧客の䞡者にずっお「垞時皌働する」リ゜ヌスずしお機胜できるこずです。RAG を搭茉した AI ゚ヌゞェントは、やりずりから継続的に孊習し、時間の経過ずずもに改善しおいくため、より正確な察応ずより優れたナヌザヌ䜓隓を提䟛するこずができたす。 デゞタル ヒュヌマン むンタヌフェむスを怜蚎しおいる䌁業にずっお、適切なアバタヌずレンダリング オプションの遞択は、ナヌス ケヌスやカスタマむズ蚭定に䟝存したす。 ナヌス ケヌス : 3D アバタヌは、実店舗やキオスク (無人端末) など、䞻に 1察 1 のやりずりのような、非垞に没入感の高いナヌス ケヌスに最適ですが、2D アバタヌは、Web やモバむルの察話型 AI ナヌス ケヌスに効果的です。 開発ずカスタマむズの蚭定 : 3D やアニメヌションの専門知識を持぀チヌムは、そのスキルを掻甚しお没入感のある超リアルなアバタヌを䜜成できたす。䞀方、反埩䜜業やカスタマむズを迅速に行いたいチヌムには、シンプルな 2D アバタヌが有効です。 スケヌリングの考慮すべきポむント : アバタヌず察応するレンダリング オプションを評䟡する際に、スケヌリングは考慮すべき重芁なポむントです。ストリヌムのスルヌプットは、特に 3D アバタヌの堎合、䜿甚するキャラクタヌ アセットの遞択ず品質によっお倧きく異なりたす。垌望する出力解像床や遞択するレンダリング オプション (Omniverse Renderer たたは Unreal Engine) は、ストリヌムあたりの蚈算フットプリントを決定する䞊で重芁な圹割を果たしたす。 NVIDIA Audio2Face-2D では、顔写真ず音声入力だけでリアルな 2D アバタヌを䜜成できたす。簡単でシンプルな構成のため、開発者はデゞタル ヒュヌマンのナヌス ケヌスに合わせたアバタヌやアニメヌションを迅速に繰り返し䜜成できたす。リアルタむム出力ずクラりド ネむティブのデプロむにより、2D デゞタル ヒュヌマンは、むンタラクティブなナヌス ケヌスや、むンタラクティブな Web 組み蟌み゜リュヌション向けのストリヌミング アバタヌに最適です。 たずえば、耇数のデバむスに AI ゚ヌゞェントをデプロむし、Web たたはモバむル ファヌストのカスタマヌ ゞャヌニヌにデゞタル ヒュヌマンを導入しようずしおいる䌁業には、2D アバタヌはハヌドりェア芁件が軜枛するのでメリットがありたす。 3D のフォトリアリスティックなアバタヌは、高い共感が芁求されるナヌザヌ ゚ンゲヌゞメントを必芁ずするナヌス ケヌスに、比類のない没入䜓隓を提䟛したす。NVIDIA Audio2Face-3D ずアニメヌション NIM マむクロサヌビスは、繊现な頭郚ず身䜓のアニメヌションずずもにブレンドシェむプを生成し、没入感のあるフォトリアリスティックなアバタヌを䜜成するこずで、3D キャラクタヌをアニメヌション化したす。デゞタル ヒュヌマン AI Blueprint は、3D アバタヌのレンダリング オプションをずしお、Omniverse レンダラヌず Unreal-Engine レンダラヌをサポヌトしおおり、開発者が遞択したレンダリング オプションを柔軟に統合できるようになりたした。 デゞタル ヒュヌマンが䌁業を匷化する方法に぀いおは、 NVIDIA API カタログ にアクセスしお、さたざたなアバタヌのオプションをご芧ください。 デゞタル アバタヌを始める Audio2Face-2D ず Unreal Engine NIM マむクロサヌビスを䜿甚した実践的な開発に぀いおは、 ACE 早期アクセスに申し蟌む か、デゞタル ヒュヌマン AI Blueprint の 技術ブログ にアクセスしお、チャットボット アプリケヌションをパヌ゜ナラむズするためにデゞタル ヒュヌマン むンタヌフェむスを远加する方法に぀いお孊ぶこずができたす。 1 Gartner®, Hype Cycle for the Future of Work, 2024 by Tori Paulman, Emily Rose McRae, etc., July 2024 GARTNER is a registered trademark and service mark of Gartner, Inc. and/or its affiliates in the U.S. and internationally and is used herein with permission. All rights reserved. 関連情報 GTC セッション: Enhancing the Digital Human Experience with Cloud Microservices Accelerated by Generative AI GTC セッション: Build a World of Interactive Avatars Based on NVIDIA Omniverse, AIGC, and LLM NGC コンテナヌ: ACE ゚ヌゞェント サンプル フロント゚ンド SDK: NVIDIA Tokkio りェビナヌ: How Telcos Transform Customer Experiences with Conversational AI
https://developer.nvidia.com/blog/ai-ran-goes-live-and-unlocks-a-new-ai-opportunity-for-telcos/
AI-RAN Goes Live and Unlocks a New AI Opportunity for Telcos
AI is transforming industries, enterprises, and consumer experiences in new ways. Generative AI models are moving towards reasoning, agentic AI is enabling new outcome-oriented workflows and physical AI is enabling endpoints like cameras, robots, drones, and cars to make decisions and interact in real time. The common glue between all these use cases is the need for pervasive, reliable, secure, and super-fast connectivity. Telecommunication networks must prepare for this new kind of AI traffic, which can come directly through the fronthaul wireless access network or backhauled from the public or private cloud as a completely standalone AI inferencing traffic generated by enterprise applications. Local wireless infrastructure offers an ideal place to process AI inferencing. This is where a new approach to telco networks, AI radio access network ( AI-RAN ), stands out. Traditional CPU or ASIC-based RAN systems are designed only for RAN use and cannot process AI traffic today. AI-RAN enables a common GPU-based infrastructure that can run both wireless and AI workloads concurrently, turning networks from single-purpose to multi-purpose infrastructures and turning sites from cost-centers to revenue sources. With a strategic investment in the right kind of technology, telcos can leap forward to become the AI grid that facilitates the creation, distribution, and consumption of AI across industries, consumers, and enterprises. This moment in time presents a massive opportunity for telcos to build a fabric for AI training (creation) and AI inferencing (distribution) by repurposing their central and distributed infrastructures. SoftBank and NVIDIA fast-forward AI-RAN commercialization SoftBank has turned the AI-RAN vision into reality, with its successful outdoor field trial in Fujisawa City, Kanagawa, Japan, where NVIDIA-accelerated hardware and NVIDIA Aerial software served as the technical foundation. This achievement marks multiple steps forward for AI-RAN commercialization and provides real proof points addressing industry requirements on technology feasibility, performance, and monetization: World’s first outdoor 5G AI-RAN field trial running on an NVIDIA-accelerated computing platform. This is an end-to-end solution based on a full-stack, virtual 5G RAN software integrated with 5G core. Carrier-grade virtual RAN performance achieved. AI and RAN multi-tenancy and orchestration achieved. Energy efficiency and economic benefits validated compared to existing benchmarks. A new solution to unlock AI marketplace integrated on an AI-RAN infrastructure. Real-world AI applications showcased, running on an AI-RAN network. Above all, SoftBank aims to commercially release their own AI-RAN product for worldwide deployment in 2026. To help other mobile network operators get started on their AI-RAN journey now, SoftBank is also planning to offer a reference kit comprising the hardware and software elements required to trial AI-RAN in a fast and easy way. End-to-end AI-RAN solution and field results SoftBank developed their AI-RAN solution by integrating hardware and software components from NVIDIA and ecosystem partners and hardening them to meet carrier-grade requirements. Together, the solution enables a full 5G vRAN stack that is 100% software-defined, running on NVIDIA GH200 (CPU+GPU), NVIDIA Bluefield-3 (NIC/DPU), and Spectrum-X for fronthaul and backhaul networking. It integrates with 20 radio units and a 5G core network and connects 100 mobile UEs. The core software stack includes the following components: SoftBank-developed and optimized 5G RAN Layer 1 functions such as channel mapping, channel estimation, modulation, and forward-error-correction, using NVIDIA Aerial CUDA-Accelerated-RAN libraries Fujitsu software for Layer 2 functions Red Hat’s OpenShift Container Platform (OCP) as the container virtualization layer, enabling different types of applications to run on the same underlying GPU computing infrastructure A SoftBank-developed E2E AI and RAN orchestrator, to enable seamless provisioning of RAN and AI workloads based on demand and available capacity The underlying hardware is the NVIDIA GH200 Grace Hopper Superchip , which can be used in various configurations from distributed to centralized RAN scenarios. This implementation uses multiple GH200 servers in a single rack, serving AI and RAN workloads concurrently, for an aggregated-RAN scenario. This is comparable to deploying multiple traditional RAN base stations. In this pilot, each GH200 server was able to process 20 5G cells using 100-MHz bandwidth, when used in RAN-only mode. For each cell, 1.3 Gbps of peak downlink performance was achieved in ideal conditions, and 816Mbps was demonstrated with carrier-grade availability in the outdoor deployment. AI-RAN multi-tenancy achieved One of the first principles of AI-RAN technology is to be able to run RAN and AI workloads concurrently and without compromising carrier-grade performance. This multi-tenancy can be either in time or space: dividing the resources based on time of day or based on percentage of compute. This also implies the need for an orchestrator that can provision, de-provision, or shift workloads seamlessly based on available capacity. At the Fujisawa City trial, concurrent AI and RAN processing was successfully demonstrated over GH200 based on static allocation of resources between RAN and AI workloads (Figure 1). Figure 1. AI and RAN concurrency and total GPU utilization Each NVIDIA GH200 server constitutes multiple MIGs (Multi-Instance GPU), that enable a single GPU to be divided into multiple isolated GPU instances. Each instance has its own dedicated resources, such as memory, cache, and compute cores, and can operate independently. The SoftBank orchestrator intelligently assigns whole GPUs or some MIGs within a GPU to run AI and some to run RAN workloads and switches them dynamically when needed. It is also possible to statically allocate a certain percentage of compute for RAN and AI, for example, 60% for RAN and 40% for AI instead of demand-based allocation. The goal is to maximize capacity utilization. With AI-RAN, telcos can achieve almost 100% utilization compared to 33% capacity utilization for typical RAN-only networks. This is an increase of up to 3x while still catering to peak RAN loads, thanks to dynamic orchestration and prioritization policies. Enabling an AI-RAN marketplace With a new capacity for AI computing now available on distributed AI-RAN infrastructure, the question arises of how to bring AI demand to this AI computing supply. To solve this, SoftBank used a serverless API powered by NVIDIA AI Enterprise to deploy and manage AI workloads on AI-RAN, with security, scale, and reliability. The NVIDIA AI Enterprise serverless API is hosted on the AI-RAN infrastructure and integrated with the SoftBank E2E AI-RAN orchestrator. It connects to any public or private cloud running the same API, to dispatch external AI inferencing jobs to the AI-RAN server when compute is available (Figure 2). Figure 2. AI marketplace solution integrated with SoftBank AI-RAN This solution enables an AI marketplace, helping SoftBank deliver localized, low-latency, secured inferencing services. It also demonstrated the importance of AI-RAN in helping telcos become the AI distribution grid, particularly for external AI inferencing jobs, and opened a new revenue opportunity. AI-RAN applications showcased In this outdoor trial, new edge AI applications developed by SoftBank were demonstrated over the live AI-RAN network: Remote support of autonomous vehicles over 5G Factory multi-modal AI applications Robotics applications Remote support of autonomous vehicles over 5G The key requirements of the social implementation of autonomous driving are vehicle safety and reducing operational costs. At the Fujisawa City trial, SoftBank demonstrated an autonomous vehicle, relaying its front camera video using 5G to an AI-based remote support service hosted on the AI-RAN server. Multi-modal AI models analyzed the video stream, did risk assessment, and sent recommended actions to autonomous vehicles using text over 5G. This is an example of explainable AI as well, as all the actions of the autonomous vehicle could be monitored and explained through summarized text and logging for remote support. Factory multi-modal AI applications In this use case, multi-modal inputs including video, audio, and sensor data, are streamed using 5G into the AI-RAN server. Multiple LLMs, VLMs, retrieval-augmented generation (RAG) pipelines, and NVIDIA NIM microservices hosted on the AI-RAN server are used to coalesce these inputs and make the knowledge accessible through a chat interface to users using 5G. This fits well for factory monitoring, construction site inspections, and similar complex indoor and outdoor environments. The use case demonstrates how edge AI-RAN enables local data sovereignty by keeping data access and analysis local, secure, and private, which is a mandatory requirement of most enterprises. Robotics applications SoftBank demonstrated the benefit of edge AI inferencing for a robot connected over 5G. A robodog was trained to follow a human based on voice and motion. The demo compared the response time of the robot when the AI inferencing was hosted on the local AI-RAN server to when it was hosted on the central cloud. The difference was apparent and obvious. The edge-based inference robodog followed the human’s movements instantly, while the cloud-based inference robot struggled to keep up. Accelerating the AI-RAN business case with the Aerial RAN Computer-1 While the AI-RAN vision has been embraced by the industry, the energy efficiency and economics of GPU-enabled infrastructure remain key requirements, particularly how they compare to traditional CPU– and ASIC-based RAN systems. With this live field trial of AI-RAN, SoftBank and NVIDIA have not only proven that GPU-enabled RAN systems are feasible and high-performant, but they are also significantly better in energy efficiency and economic profitability. NVIDIA recently announced the Aerial RAN Computer-1 based on the next-generation NVIDIA Grace Blackwell superchips as the recommended AI-RAN deployment platform. The goal is to migrate SoftBank 5G vRAN software from NVIDIA GH200 to NVIDIA Aerial RAN Computer-1 based on GB200-NVL2, which is an easier shift given the code is already CUDA-ready. With GB200-NVL2 , the available compute for AI-RAN will increase by a factor of 2x. The AI processing capabilities will improve by 5x for Llama-3 inferencing, 18x for data processing, and 9x for vector database search compared to prior H100 GPU systems. For this evaluation, we compared the target deployment platform, Aerial RAN Computer-1 based on GB200 NVL2, with the latest generation of x86 and the best-in-class custom RAN product benchmarks and validated the following findings: Accelerated AI-RAN offers best-in-class AI performance Accelerated AI-RAN is sustainable RAN Accelerated AI-RAN is highly profitable Accelerated AI-RAN offers best-in-class AI performance In 100% AI-only mode, each GB200-NVL2 server generates 25000 tokens/second, which translates to $20/hr of available monetizable compute per server, or $15K/month per server. Keeping in mind that the average revenue per user (ARPU) of wireless services today ranges between $5–50/month depending on the country, AI-RAN opens a new multi-billion-dollar AI revenue opportunity that is orders of magnitude higher than revenues from RAN-only systems. The token AI workload used is Llama-3-70B FP4, showcasing that AI-RAN is already capable of running the world’s most advanced LLM models. Accelerated AI-RAN is sustainable RAN In 100% RAN-only mode, GB200-NVL2 server power performance in Watt/Gbps shows the following benefits: 40% less power consumption than the best-in-class custom RAN-only systems today 60% less power consumption than x86-based vRAN For an even comparison, this assumes the same number of 100-MHz 4T4R cells and 100% RAN-only workload across all platforms. Figure 3. RAN power consumption and performance (watt/Gbps) Accelerated AI-RAN is highly profitable For this evaluation, we used the scenario of covering one district in Tokyo with 600 cells as the common baseline for RAN deployment for each of the three platforms being compared. We then looked at multiple scenarios for AI and RAN workload distribution, ranging from RAN-only to RAN-heavy or AI-heavy. In the AI-heavy scenario (Figure 4), we used a one-third RAN and two-third AI workload distribution: For every dollar of CapEx investment in accelerated AI-RAN infrastructure based on NVIDIA GB200 NVL2, telcos can generate 5x the revenue over 5 years. From an ROI perspective, the overall investment delivers a 219% return, considering all CapEx and OpEx costs.This is of course specific to SoftBank, as it uses local country costs assumptions. Figure 4. AI-RAN economics for covering one Tokyo district with 600 cells 33% AI and 67% RAN 67% AI and 33% RAN $ of revenue per $ of CapEx 2x 5x ROI % 33% 219% Table 1. AI-heavy scenario compared to RAN-heavy results In the RAN-heavy scenario, we used two-thirds RAN and one-third AI workload distribution and found that revenue divided by CapEx for NVIDIA-accelerated AI-RAN is 2x, with a 33% ROI over 5 years, using SoftBank local cost assumptions. In the RAN-only scenario, NVIDIA Aerial RAN Computer-1 is more cost-efficient than custom RAN-only solutions, which underscores the benefits of using accelerated computing for radio signal processing. From these scenarios, it is evident that AI-RAN is highly profitable as compared to RAN-only solutions, in both AI-heavy and RAN-heavy modes. In essence, AI-RAN transforms traditional RAN from a cost center to a profit center. The profitability per server improves with higher AI use. Even in RAN-only, AI-RAN infrastructure is more cost-efficient than custom RAN-only options. Key assumptions used for the revenue and TCO calculations include the following: The respective number of platforms, servers, and racks for each platform are calculated using a common baseline of deploying 600 cells on the same frequency, 4T4R. The total cost of ownership (TCO) is calculated over 5 years and includes the cost of hardware, software, and vRAN and AI operating costs. For the new AI revenue calculation, we used $20/hr/server based on GB200 NVL2 AI performance benchmarks. OpEx costs are based on local Japan power costs and aren’t extensible worldwide. ROI % = (new AI revenues – TCO) / TCO This validation of AI revenue upside, energy efficiency, and profitability of AI-RAN leaves no doubts about the feasibility, performance, and economic benefits of the technology. Going forward, exponential gains with each generation of NVIDIA superchips, such as Vera Rubin, will multiply these benefits by orders of magnitude further, enabling the much-awaited business transformation of telco networks. Looking ahead SoftBank and NVIDIA are continuing to collaborate toward the commercialization of AI-RAN and bringing new applications to life. The next phase of the engagements will entail work on AI-for-RAN to improve spectral efficiency and on NVIDIA Aerial Omniverse digital twins to simulate accurate physical networks in the digital world for fine-tuning and testing. NVIDIA AI Aerial lays the foundation for operators and ecosystem partners globally to use the power of accelerated computing and software-defined RAN + AI to transform 5G and 6G networks. You can now use NVIDIA Aerial RAN Computer-1 and AI Aerial software libraries to develop your own implementation of AI-RAN. NVIDIA AI Enterprise is also helping create new AI applications for telcos, hostable on AI-RAN, as is evident from this trial where many NVIDIA software toolkits have been used. This includes NIM microservices for generative AI, RAG, VLMs, NVIDIA Isaac for robotics training, NVIDIA NeMo, RAPIDS, NVIDIA Triton for inferencing, and a serverless API for AI brokering. The telecom industry is at the forefront of a massive opportunity to become an AI service provider. AI-RAN can kickstart this new renaissance for telcos worldwide, using accelerated computing as the new foundation for wireless networks. This announcement marks a breakthrough moment for AI-RAN technology, proving its feasibility, carrier-grade performance, superior energy efficiency, and economic value. Every dollar of CapEx invested in NVIDIA-accelerated AI-RAN infrastructure generates 5x revenues, while being 6G-ready. The journey to AI monetization can start now.
https://developer.nvidia.com/ja-jp/blog/ai-ran-goes-live-and-unlocks-a-new-ai-opportunity-for-telcos/
AI-RAN が通信事業者向けに新しい AI のビゞネス チャンスをもたらす
Reading Time: 4 minutes AI は、業界、䌁業、消費者の䜓隓を新しい方法で倉革しおいたす。 生成 AI モデルは掚論に移行し、 ゚ヌゞェント型 AI は新しい結果重芖のワヌクフロヌを可胜にし フィゞカル AI により、カメラ、ロボット、ドロヌン、自動車などの゚ンドポむントがリアルタむムで意思決定を行い、察話できるようになりたす。 これらのナヌス ケヌスに共通するのは、普及し、信頌性が高く、安党で、超高速な接続が必芁であるこずです。 通信ネットワヌクは、フロントホヌル無線アクセス ネットワヌクを介しお盎接送信されるか、゚ンタヌプラむズ アプリケヌションによっお生成されるパブリック クラりドたたはプラむベヌト クラりドからのバックホヌルからの完党にスタンドアロンの AI 掚論トラフィックのような新しい皮類の AI トラフィックに備える必芁がありたす。 ロヌカル ワむダレス むンフラストラクチャは、AI 掚論を凊理するのに最適な堎所を提䟛したす。 これは、通信䌚瀟 ネットワヌクに察する新しいアプロヌチである AI 無線アクセス ネットワヌク ( AI-RAN ) の特城です。 埓来の CPU たたは ASIC ベヌスの RAN システムは、RAN のみのために蚭蚈されおおり、珟圚では AI トラフィックを凊理できたせん。 AI-RAN は、ワむダレスず AI のワヌクロヌドを同時に実行できる共通の GPU ベヌスのむンフラストラクチャを提䟛したす。これにより、ネットワヌクを単䞀目的から倚目的むンフラストラクチャに倉え、コスト センタヌからプロフィット センタヌに倉えられたす。 適切な皮類のテクノロゞに戊略的投資を行うこずで、通信䌚瀟は業界、消費者、䌁業にわたっお AI の䜜成、配信、䜿甚を容易にする、 AI グリッドぞず飛躍するこずができたす。今が通信䌚瀟にずっお、䞭倮集䞭的で分散されたむンフラストラクチャを再利甚するこずで、AI トレヌニング (䜜成) ず AI 掚論 (配信) のためのファブリックを構築する倧きな機䌚ずなりたす。 SoftBank ず NVIDIA が AI-RANの商甚化を進める SoftBank は、NVIDIA アクセラレヌション ハヌドりェアず NVIDIA Aerial ゜フトりェアを技術基盀ずしお掻甚し、 神奈川県藀沢垂で屋倖 フィヌルド トラむアルを成功させ、 AI-RAN ビゞョンを 珟実のものにしたした。 この達成は、AI-RAN の商甚化に向けた倧きな前進であり、テクノロゞの実珟性、パフォヌマンス、収益化に関する業界の芁件に察応する実蚌ポむントを提䟛したす。 NVIDIA のアクセラレヌテッド コンピュヌティング プラットフォヌムで実行される䞖界初の屋倖 5G AI-RAN フィヌルド トラむアル。 これは、5G コアず統合されたフルスタックの仮想 5G RAN ゜フトりェアに基づく゚ンドツヌ゚ンドの゜リュヌションです。 キャリア グレヌドの仮想 RAN のパフォヌマンスを実珟。 AI ず RAN のマルチテナントずオヌケストレヌションを実珟。 ゚ネルギヌ効率ず経枈的なメリットが、既存のベンチマヌクず比范しお怜蚌されたした。 AI-RAN むンフラストラクチャに統合された AI マヌケットプレむスを提䟛する新しい゜リュヌション。 AI-RAN ネットワヌクで実行される実際の AI アプリケヌションが玹介されたす。 䜕よりも、SoftBank は、䞖界䞭に展開するために、独自の AI-RAN 補品を商業的にリリヌスするこずを目指しおいたす。 他の通信事業者が今すぐ AI-RAN の導入を支揎するために、SoftBank は、AI-RAN を詊甚するために必芁なハヌドりェアず゜フトりェアの芁玠で構成されたリファレンス キットを、簡単か぀迅速に提䟛する予定です。 ゚ンドツヌ゚ンドの AI-RAN ゜リュヌションずフィヌルド トラむアルの結果 SoftBank は、NVIDIA ず゚コシステム パヌトナヌのハヌドりェアず゜フトりェア コンポヌネントを統合し、キャリアグレヌドの芁件を満たすように匷化するこずで、AI-RAN ゜リュヌションを開発したした。 この゜リュヌションは、NVIDIA GH200 (CPU+GPU)、NVIDIA Bluefield-3 (NIC/DPU)、フロントホヌルおよびバックホヌル ネットワヌキング甚の Spectrum-X で実行される 100% ゜フトりェア デファむンドの完党な 5G vRAN スタックが実珟したす。 20 台の無線ナニットず 5G コア ネットワヌクを統合し、100 台のモバむル UE を接続したす。 コア ゜フトりェア スタックには、以䞋のコンポヌネントが含たれおいたす。 SoftBank が NVIDIA Aerial CUDA-Accelerated-RAN ラむブラリを䜿甚しお、 5G RAN レむダヌ 1 のチャネル マッピング、チャネル掚定、倉調、前方゚ラヌ蚂正などの機胜を開発し、最適化したした。 レむダヌ 2 機胜向け Fujitsu ゜フトりェア コンテナヌの仮想化レむダヌずしおの Red Hat の OpenShift Container Platform (OCP) により、同じ基盀ずなる GPU コンピュヌティング むンフラストラクチャで異なるタむプのアプリケヌションが実行されたす SoftBank が開発した E2E、AI ず RAN オヌケストレヌタヌ。需芁ず䜿甚可胜な容量に基づいお RAN ず AI のワヌクロヌドのシヌムレスなプロビゞョニングを可胜にしたす。 基盀ずなるハヌドりェアは、 NVIDIA GH200 Grace Hopper Superchip であり、分散型から集䞭型 RAN シナリオたで、さたざたな構成で䜿甚できたす。 この実装では、集玄された RAN のシナリオのために、1 ぀のラックで耇数の GH200 サヌバヌを䜿甚し、AI ず RAN のワヌクロヌドを同時に凊理したす。 これは、埓来の RAN 基地局を耇数展開するのに盞圓したす。 このパむロットでは、RAN のみのモヌドで䜿甚された堎合、各 GH200 サヌバヌは、100 MHz 垯域幅で 20 個の 5G セルを凊理するこずができたした。 各セルでは、理想的な条件䞋で 1.3 Gbps のピヌク ダりンリンク性胜が達成され、屋倖展開ではキャリアグレヌドの可甚性で 816 Mbps が実蚌されたした。 AI-RAN のマルチテナントを実珟 AI-RAN テクノロゞの第䞀の原則の 1 ぀は、キャリアグレヌドのパフォヌマンスを損なうこずなく、RAN ず AI のワヌクロヌドを同時に実行できるこずです。 このマルチテナントは、時間たたは空間のいずれかで実行でき、時間垯たたはコンピュヌティングの割合に基づいおリ゜ヌスを分割したす。 たた、これは、䜿甚可胜な容量に基づいお、ワヌクロヌドをシヌムレスにプロビゞョニング、プロビゞョニングの解陀、シフトできるオヌケストレヌタヌの必芁性も意味したす。 藀沢垂の実蚌実隓では、RAN ず AI ワヌクロヌド間のリ゜ヌスの静的割り圓おに基づいお、GH200 䞊での AI ず RAN の同時凊理が実蚌されたした。 (図 1)。 図 1. AI ず RAN の同時凊理ず GPU の合蚈䜿甚率 各 NVIDIA GH200 サヌバヌは、耇数の MIG (マルチむンスタンス GPU) で構成され、1 ぀の GPU を耇数の独立した GPU むンスタンスに分割できたす。 各むンスタンスには、メモリ、キャッシュ、コンピュヌティング コアなど、独自の専甚リ゜ヌスがあり、独立しお動䜜できたす。 SoftBank オヌケストレヌタヌは、AI を実行するために GPU 党䜓たたは GPU の䞀郚をむンテリゞェントに割り圓お、RAN のワヌクロヌドを実行し、必芁に応じお動的に切り替えたす。 需芁に基づく割り圓おではなく、RAN ず AI に䞀定の割り圓おを、RAN に 60% ず AI に 40% のコンピュヌティングを静的に割り圓おるこずもできたす。 目暙は、容量䜿甚率を最倧化するこずです。 AI-RAN を䜿甚するず、通信䌚瀟は、通垞の RAN のみのネットワヌクでの 33% の容量䜿甚率ず比范しお、ほが 100% の䜿甚率を実珟できたす。 これは、動的なオヌケストレヌションず優先順䜍付けポリシヌのおかげで、ピヌクの RAN の負荷に察応しながら、最倧 3 倍の増加です。 AI-RAN マヌケットプレむスの実珟 分散型 AI-RAN むンフラストラクチャで AI コンピュヌティングの新しい機胜が利甚できるようになったため、この AI コンピュヌティングの䟛絊に AI の需芁をどのように取り蟌むかずいう疑問が生じたす。 この問題を解決するために、SoftBank は、NVIDIA AI ゚ンタヌプラむズ を掻甚したサヌバヌレス API を䜿甚しお、セキュリティ、拡匵性、信頌性を備えお AI-RAN で AI ワヌクロヌドを展開し、管理したした。 NVIDIA AI ゚ンタヌプラむズのサヌバヌレス API は、AI-RAN むンフラストラクチャでホストされ、SoftBank E2E AI-RAN オヌケストレヌタヌず統合されおいたす。 同じ API を実行するパブリック クラりドたたはプラむベヌト クラりドに接続し、コンピュヌティングが利甚可胜になったずきに、倖郚の AI 掚論ゞョブを AI-RAN サヌバヌに割り圓おたす (図 2)。 図 2. SoftBank AI-RAN ず統合された AI マヌケットプレむス ゜リュヌション この゜リュヌションにより AI マヌケットプレむスが実珟し、゜フトバンクはロヌカラむズされた䜎遅延の安党な掚論サヌビスを提䟛できるようになりたす。  たた、特に倖郚の AI 掚論の仕事のために、通信䌚瀟が AI 配信グリッドになるのを支揎する䞊で AI-RAN の重芁性も実蚌し、新しい収益の機䌚を䜜りたす。 AI-RAN アプリケヌションが玹介 この屋倖の詊甚では、SoftBank が開発した新しい゚ッゞ AI アプリケヌションがラむブ AI-RAN ネットワヌクでデモンストレヌションされたした。 5G を介した自動運転車のリモヌト サポヌト 工堎出荷時のマルチモヌダル ロボティクス アプリケヌション 5G を介した自動運転車のリモヌト サポヌト 自動運転の瀟䌚的実装の重芁な芁件は、車の安党性ず運甚コストの削枛です。 藀沢垂の実蚌実隓では、゜フトバンクが自動運転車を実挔し、前方カメラの映像を 5G で AI-RAN サヌバヌにホストされた AI ベヌスの遠隔サポヌト サヌビスに䞭継した。 マルチモヌダル AI モデルは、ビデオ ストリヌムを分析し、リスク評䟡を行い、5G を介したテキストを䜿甚しお自動運転車に掚奚のアクションを送信したした。 これは、説明可胜な AI の䟋でもありたす。リモヌト サポヌトのための芁玄されたテキストずログを通じお、自動運転車のすべおの動䜜を監芖し、説明するこずができたした。 工堎出荷時のマルチモヌダル このナヌス ケヌスでは、ビデオ、オヌディオ、センサヌ デヌタを含むマルチモヌダル入力が、5G を䜿甚しお AI-RAN サヌバヌにストリヌミングされたす。 AI-RAN サヌバヌでホストされる、耇数の LLM、VLM、怜玢拡匵生成 (RAG) パむプラむン、NVIDIA NIM マむクロサヌビスは、これらの入力を統合し、5G を䜿甚するナヌザヌがチャット むンタヌフェむスを介しお情報にアクセスできるようにするために䜿甚されたす。 これは、工堎の監芖、建蚭珟堎の怜査、同様の耇雑な屋内および屋倖の環境に最適です。 このナヌス ケヌスでは、゚ッゞ AI-RAN がデヌタ アクセスず分析をロヌカル、安党、プラむベヌトに保぀こずで、ロヌカル デヌタの䞻暩を実珟する方法を瀺しおいたす。これは、ほずんどの䌁業にずっお必須の芁件です。 ロボティクス アプリケヌション SoftBank は、5G を介しお接続されたロボットの゚ッゞ AI 掚論の利点を実蚌したした。 ロボドッグは、声ず動きに基づいお人間を远うようにトレヌニングされたした。 このデモでは、AI 掚論がロヌカル AI-RAN サヌバヌでホストされたずきのロボットの応答時間ず、セントラル クラりドでホストされたずきの応答時間を比范したした。 その違いは明癜でした。 ゚ッゞ ベヌスの掚論 ロボドッグは、人間の動きを即座に远跡したしたが、クラりド ベヌスの掚論ロボットは、远い぀くのに苊劎したした。 Aerial RAN Computer-1 で AI-RAN のビゞネス ケヌスを高速化 AI-RAN ビゞョンは業界で受け入れられおいたすが、GPU 察応むンフラストラクチャの゚ネルギヌ効率ず経枈性、特に埓来の CPU および ASIC ベヌスの RAN システムずの比范は䟝然ずしお重芁な芁件です。 AI-RAN のこのラむブ フィヌルド トラむアルにより、SoftBank ず NVIDIA は、GPU 察応の RAN システムが実珟可胜で、高性胜であるこずを実蚌しただけでなく、゚ネルギヌ効率ず経枈的な収益性も倧幅に向䞊しおいるこずを実蚌したした。 NVIDIA は最近、次䞖代 NVIDIA Grace Blackwell Superchip をベヌスにした Aerial RAN Computer-1 を掚奚 AI-RAN 展開プラットフォヌムずしお発衚したした。 目的は、GB200-NVL2 をベヌスずした SoftBank 5G vRAN ゜フトりェアを NVIDIA GH200 から NVIDIA Aerial RAN Computer-1 に移行するこずです。これは、コヌドがすでに CUDA に察応しおいるため、移行が容易です。 たた、 GB200-NVL2 を䜿甚するず、AI-RAN で利甚可胜なコンピュヌティング胜力が 2 倍になりたす。 AI 凊理機胜は、以前の H100 GPU システムず比范しお、Llama-3 掚論が 5 倍、デヌタ凊理が 18 倍、ベクトル デヌタベヌス怜玢が 9 倍に改善されたす。 この評䟡のために、タヌゲットの展開 プラットフォヌム、GB200 NVL2 をベヌスずする Aerial RAN Computer-1、最新䞖代の x86 ずクラス最高のカスタム RAN 補品ベンチマヌクを比范し、以䞋の結果を怜蚌したした。 高速化された AI-RAN は、クラス最高の AI パフォヌマンスを提䟛したす 高速化された AI-RAN は持続可胜な RAN 高速化された AI-RAN は、非垞に収益性が高い 高速化された AI-RAN は、クラス最高の AI パフォヌマンスを提䟛したす 100% AI のみのモヌドでは、各 GB200-NVL2 サヌバヌは、毎秒 25,000 トヌクンを生成したす。これは、サヌバヌ 1 台の収益化可胜なコンピュヌティングの利甚率が 20 ドル/時間、たたはサヌバヌあたりの月15,000 ドルに換算したす。 珟圚のワむダレス サヌビスのナヌザヌ 1 人の平均収益 (ARPU) は、囜によっおは月 5  50 ドルの範囲であるこずに留意しお、AI-RAN は、RAN のみのシステムよりも数倍の高い、数十億ドル芏暡の AI 収益の機䌚を提䟛したす。 䜿甚されるトヌクン AI ワヌクロヌドは、Llama-3-70B FP4 であり、AI-RAN がすでに䞖界で最も高床な LLM モデルを実行できるこずを実蚌したす。 高速化された AI-RAN は持続可胜な RAN 100% RAN のみのモヌドでは、GB200-NVL2 サヌバヌの電力パフォヌマンスは、ワット/Gbps で以䞋の利点がありたす。 今日、クラス最高のカスタム RAN のみのシステムず比范しお、消費電力が 40% 削枛 x86 ベヌスの vRAN ず比范しお、消費電力が 60% 削枛 比范のために、これはすべおのプラットフォヌムで同じ数の 100 MHz 4T4R セルず、100% RAN のみのワヌクロヌドを想定しおいたす。 図 3. RAN の消費電力ずパフォヌマンス (ワット/Gbps) 高速化された AI-RAN は、非垞に収益性が高い この評䟡のために、比范された 3 ぀のプラットフォヌムのそれぞれで RAN 展開の共通のベヌスラむンずしお、東京郜の 1 地区を 600 セルでカバヌするシナリオを䜿甚したした。 次に、RAN のみから RAN を重くするたたは AI を重芖するたで、AI ず RAN のワヌクロヌド分垃の耇数のシナリオを調べたした。 AI が倚いシナリオ (図 4) では、RAN が 3 分の 1、AI ワヌクロヌドが 3 分の 2 を分散したした。 NVIDIA GB200 NVL2 をベヌスずする高速化された AI-RAN むンフラストラクチャぞの資本支出 (CapEx) 投資額の1ドルに察しお、通信䌚瀟は 5 幎間で 5 倍の収益を生み出すこずができたす。 ROI の芳点から、資本支出ず運甚支出のすべおのコストを考慮しお、投資党䜓は 219% のリタヌンを実珟したす。これは、珟地のコスト想定を䜿甚しおいるため、もちろん SoftBank 特有のものです。 図 4. 600 セルで 1 ぀の東京郜地区をカバヌする AI-RAN の経枈性 33% AIず 67% RAN 67% AI ず 33% RAN CapEx 1 ドルあたりの収益 $ 2x 5x ROI % 33% 219% è¡š 1. AI を倚甚するシナリオず比范した結果 RAN を倚甚するシナリオでは、3 分の 2 を RAN、3 分の 1 を AI ワヌクロヌド分散に䜿甚し、NVIDIA アクセラレヌション AI-RAN の CapEx で割った収益は 2 倍になり、SoftBank のロヌカル コスト想定を䜿甚しお 5 幎間で 33% の ROI が埗られるこずがわかりたした。 RAN のみのシナリオでは、NVIDIA Aerial RAN Computer-1 はカスタム RAN のみの゜リュヌションよりもコスト効率が高く、無線信号凊理にアクセラレヌテッド コンピュヌティングを䜿甚する倧きな利点ずなりたす。 これらのシナリオから、AI を倚甚するモヌド RAN を倚甚するモヌドの䞡方で、RAN のみの゜リュヌションず比范しお、AI-RAN が高い収益性が明らかになりたす。 本質的に、AI-RAN は、埓来の RAN をコスト センタヌから利益センタヌに倉革したす。 AI の䜿甚量の増加により、サヌバヌあたりの収益性が向䞊したす。 RAN のみの堎合でも、AI-RAN むンフラストラクチャは、カスタム RAN のみのオプションよりもコスト効率が高くなりたす。 収益ず TCO の蚈算に䜿甚された䞻な前提条件には、次のものが含たれたす。 各プラットフォヌムのプラットフォヌム、サヌバヌ、ラックのそれぞれの数は、同じ呚波数である 4T4R で 600 セルをデプロむする共通のベヌスラむンを䜿甚しお蚈算されたす。 総所有コスト (TCO) は、5 幎以䞊で蚈算されおおり、ハヌドりェア、゜フトりェア、vRAN、AI の運甚コストが含たれおいたす。 新しい AI 収益の蚈算には、GB200 NVL2 AI パフォヌマンス ベンチマヌクに基づいお、サヌバヌあたりの時間 20 ドルを䜿甚したした。 運甚支出コストは、日本の珟地の電力コストに基づいおおり、䞖界的に拡匵するこずはできたせん。 ROI % = (新しい AI 収益 – TCO) / TCO AI の収益の向䞊、゚ネルギヌ効率、収益性、収益性のこの怜蚌により、このテクノロゞの実珟性、パフォヌマンス、経枈的なメリットに疑いの䜙地はありたせん。 今埌、Vera Rubin などの NVIDIAスヌパヌチップの各䞖代が指数関数的に増加するこずで、これらのメリットはさらに桁違いに増倧し、埅望の通信ネットワヌクのビゞネス倉革が可胜になりたす。 将来を芋据える SoftBank ず NVIDIA は、AI-RAN の商業化ず新しいアプリケヌションを生み出すために、 継続的に協力 しおいたす。 この契玄の次のフェヌズでは、スペクトル効率を向䞊させる AI-for-RAN の取り組みず、ファむンチュヌニングずテストのためにデゞタル ネットワヌクをシミュレヌトする NVIDIA Aerial Omniverse デゞタル ツむンの取り組みが含たれたす。 NVIDIA AI Aerial は、䞖界䞭の通信事業者ず゚コシステム パヌトナヌが、アクセラレヌテッド コンピュヌティングず゜フトりェア デファむンド RAN + AI のパワヌを䜿甚しお、5G および 6G ネットワヌクを倉革する基盀を築きたす。 NVIDIA Aerial RAN Computer-1 ず AI Aerial ゜フトりェア ラむブラリを䜿甚しお、独自の AI-RAN 実装を開発できるようになりたした。 NVIDIA AI ゚ンタヌプラむズ は、倚くの NVIDIA ゜フトりェア ツヌルキットが䜿甚されたこのトラむアルからも明らかなように、AI-RAN でホスト可胜な通信事業者向けの新しい AI アプリケヌションの䜜成にも貢献しおいたす。これには、生成 AI 向けの NIM マむクロサヌビス、RAG、VLM、ロボティクス トレヌニング甚の NVIDIA Isaac、NVIDIA NeMo、RAPIDS、掚論甚の NVIDIA Triton、AI ブロヌカヌ甚サヌバヌレス API が含たれたす。 通信業界は、AI サヌビス プロバむダヌになる倧きなチャンスの最前線に立っおいたす。 AI-RAN は、ワむダレス ネットワヌクの新しい基盀ずしおアクセラレヌテッド コンピュヌティングを䜿甚するこずで、䞖界䞭の通信䌚瀟にずっおこの新しい倉革を促進できたす。 この発衚は、AI-RAN テクノロゞの画期的な瞬間であり、その実珟性、キャリアグレヌドのパフォヌマンス、優れた゚ネルギヌ効率、経枈的な䟡倀を蚌明したした。 NVIDIA の高速化された AI-RAN むンフラストラクチャに投資された資本支出 1 ドルは、6G に察応しながら、5 倍の収益を生み出したす。 AI 収益化ぞの取り組みは、今すぐ始められたす。 関連情報 GTC セッション: 通信䌚瀟が囜家 AI むンフラストラクチャずプラットフォヌムをどのように実珟するか GTC セッション: 珟代の通信䌚瀟 Blueprint: AI を䜿甚しお倉革ず再発明 GTC セッション: 人工知胜が通信を倉革する 3 ぀の方法 SDK: Aerial Omniverse デゞタル ツむン りェビナヌ: How Telcos Transform Customer Experiences with Conversational AI りェビナヌ: 倚蚀語音声 AI カスタマむズされた゚ヌゞェントアシストで通信䌚瀟 コンタクト センタヌ ゚ヌゞェントの匷化
https://developer.nvidia.com/blog/developing-a-172b-llm-with-strong-japanese-capabilities-using-nvidia-megatron-lm/
Developing a 172B LLM with Strong Japanese Capabilities Using NVIDIA Megatron-LM
"Generative AI has the ability to create entirely new content that traditional machine learning (ML)(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/developing-a-172b-llm-with-strong-japanese-capabilities-using-nvidia-megatron-lm/
Megatron-LM を甚いた日本語に匷い 172B 倧芏暡蚀語モデルの開発
"Reading Time:\n2\nminutes\n生成 AI は、その卓越した胜力のおかげで、埓来の機(...TRUNCATED)
https://developer.nvidia.com/blog/5x-faster-time-to-first-token-with-nvidia-tensorrt-llm-kv-cache-early-reuse/
5x Faster Time to First Token with NVIDIA TensorRT-LLM KV Cache Early Reuse
"In our previous\nblog post\n, we demonstrated how reusing the key-value (KV) cache by offloading it(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/5x-faster-time-to-first-token-with-nvidia-tensorrt-llm-kv-cache-early-reuse/
NVIDIA TensorRT-LLM の KV Cache Early Reuseで、Time to First Token を 5 倍高速化
"Reading Time:\n2\nminutes\n以前の\nブログ蚘事\nでは、key-value (KV) キャッシュを C(...TRUNCATED)
https://developer.nvidia.com/blog/state-of-the-art-multimodal-generative-ai-model-development-with-nvidia-nemo/
State-of-the-Art Multimodal Generative AI Model Development with NVIDIA NeMo
"Generative AI\nhas rapidly evolved from text-based models to multimodal capabilities. These models (...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/state-of-the-art-multimodal-generative-ai-model-development-with-nvidia-nemo/
NVIDIA NeMo による最先端のマルチモヌダル生成 AI モデル開発
"Reading Time:\n2\nminutes\n生成 AI\nは、テキストベヌスのモデルからマルチモヌ(...TRUNCATED)
https://developer.nvidia.com/blog/frictionless-collaboration-and-rapid-prototyping-in-hybrid-environments-with-nvidia-ai-workbench/
Frictionless Collaboration and Rapid Prototyping in Hybrid Environments with NVIDIA AI Workbench
"NVIDIA AI Workbench\nis a free development environment manager that streamlines data science, AI, a(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/frictionless-collaboration-and-rapid-prototyping-in-hybrid-environments-with-nvidia-ai-workbench/
"NVIDIA AI Workbench によるハむブリッド環境におけるスムヌズなコラボレヌシ(...TRUNCATED)
"Reading Time:\n3\nminutes\nNVIDIA AI Workbench\nは、遞択したシステムでデヌタ サむ(...TRUNCATED)
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
130