Dataset Viewer
Auto-converted to Parquet Duplicate
en_url
stringlengths
70
147
en_title
stringlengths
35
105
en_content
stringlengths
5.28k
21.5k
jp_url
stringlengths
76
153
jp_title
stringlengths
16
72
jp_content
stringlengths
3.21k
16.7k
https://developer.nvidia.com/blog/three-building-blocks-for-creating-ai-virtual-assistants-for-customer-service-with-an-nvidia-nim-agent-blueprint/
Three Building Blocks for Creating AI Virtual Assistants for Customer Service with an NVIDIA AI Blueprint
In today’s fast-paced business environment, providing exceptional customer service is no longer just a nice-to-have—it’s a necessity. Whether addressing technical issues, resolving billing questions, or providing service updates, customers expect quick, accurate, and personalized responses at their convenience. However...
https://developer.nvidia.com/ja-jp/blog/three-building-blocks-for-creating-ai-virtual-assistants-for-customer-service-with-an-nvidia-nim-agent-blueprint/
NVIDIA AI Blueprint でカスタマー サービス向けの AI バーチャル アシスタントを作成する 3 つの構成要素
Reading Time: 2 minutes 今日のめまぐるしいビジネス環境では、優れたカスタマー サービスを提供することは、もはや単に「あれば良いこと」ではなく、「必要不可欠なこと」です。技術的な問題への対応、請求に関する質問の解決、サービスの最新情報の提供など、顧客は、迅速かつ正確で、顧客の都合にカスタマイズされた対応を期待しています。しかし、このレベルのサービスを実現するには、大きな課題が伴います。 パーソナライズされたリアルタイムのサポートを提供するには、多くの場合、静的なスクリプトや手作業によるプロセスといった従来のアプローチでは不十分です。さらに、多くのカスタマー サービス業務では、機密性が高くかつ断片的なデータを取り...
https://developer.nvidia.com/blog/hymba-hybrid-head-architecture-boosts-small-language-model-performance/
Hymba Hybrid-Head Architecture Boosts Small Language Model Performance
Transformers, with their attention-based architecture, have become the dominant choice for language models (LMs) due to their strong performance, parallelization capabilities, and long-term recall through key-value (KV) caches. However, their quadratic computational cost and high memory demands pose efficiency challeng...
https://developer.nvidia.com/ja-jp/blog/hymba-hybrid-head-architecture-boosts-small-language-model-performance/
Hymba ハイブリッド ヘッド アーキテクチャが小規模言語モデルのパフォーマンスを向上
Reading Time: 4 minutes Transformer は、その Attention ベースのアーキテクチャによる、強力なパフォーマンス、並列化能力、および KV (Key-Value) キャッシュを通じた長期記憶のおかげで、言語モデル (LM) の主流となっています。しかし、二次計算コストと高いメモリ要求により、効率性に課題が生じています。これに対し、Mamba や Mamba-2 のような状態空間モデル (SSMs) は、複雑さを一定にして効率的なハードウェア最適化を提供しますが、メモリ想起タスクが苦手でそれは一般的なベンチマークでのパフォーマンスに影響を与えています。 NVIDIA の研究者は最近、効率性とパフ...
https://developer.nvidia.com/blog/deploying-fine-tuned-ai-models-with-nvidia-nim/
Deploying Fine-Tuned AI Models with NVIDIA NIM
For organizations adapting AI foundation models with domain-specific data, the ability to rapidly create and deploy fine-tuned models is key to efficiently delivering value with enterprise generative AI applications. NVIDIA NIM offers prebuilt, performance-optimized inference microservices for the latest AI foundation ...
https://developer.nvidia.com/ja-jp/blog/deploying-fine-tuned-ai-models-with-nvidia-nim/
NVIDIA NIM でファインチューニングされた AI モデルのデプロイ
Reading Time: 2 minutes ドメイン固有のデータで AI 基盤モデルを適応させている企業にとって、ファインチューニングされたモデルを迅速に作成し、デプロイする能力は、企業の生成 AI アプリケーションで効率的に価値を提供するための鍵となります。 NVIDIA NIM は、Parapeter-efficient Fine-tuning (PEFT) を用いてカスタマイズしたモデルの シームレスなデプロイ など、最新の AI 基盤モデル向けにビルドされたパフォーマンスを最適化した推論マイクロサービスを提供します。 場合によっては、Low-rank Adaptation (LoRA) を使用した PEFT とは異なり、...
https://developer.nvidia.com/blog/mastering-llm-techniques-data-preprocessing/
Mastering LLM Techniques: Data Preprocessing
The advent of large language models (LLMs) marks a significant shift in how industries leverage AI to enhance operations and services. By automating routine tasks and streamlining processes, LLMs free up human resources for more strategic endeavors, thus improving overall efficiency and productivity. Training and custo...
https://developer.nvidia.com/ja-jp/blog/mastering-llm-techniques-data-preprocessing/
LLM テクニックの習得: データの前処理
Reading Time: 2 minutes 大規模言語モデル (LLM) の出現は、企業が AI を活用して業務とサービスを強化する方法に大きな変化をもたらしました。LLM は日常的な作業を自動化し、プロセスを合理化することで、人的リソースをより戦略的な取り組みに割り当てることで、全体的な効率性と生産性を向上させます。 LLM を高精度にトレーニングおよび カスタマイズ するには、高品質なデータが必要となるため、多くの課題を伴います。データの質が低く、量が十分でないと、モデルの精度が大幅に低下する可能性があるため、AI 開発者にとってデータセットの準備は重要な作業の 1 つとなっています。 データセットには往々にして重複したドキ...
https://developer.nvidia.com/blog/expanding-ai-agent-interface-options-with-2d-and-3d-digital-human-avatars/
Expanding AI Agent Interface Options with 2D and 3D Digital Human Avatars
When interfacing with generative AI applications, users have multiple communication options—text, voice, or through digital avatars. Traditional chatbot or copilot applications have text interfaces where users type in queries and receive text-based responses. For hands-free communication, speech AI technologies like au...
https://developer.nvidia.com/ja-jp/blog/expanding-ai-agent-interface-options-with-2d-and-3d-digital-human-avatars/
2D と 3D のデジタル ヒューマン アバターによる AI エージェント インターフェイス オプションの拡張
Reading Time: 2 minutes ユーザーが 生成 AI アプリケーションを使ってやり取りする際には、テキスト、音声、デジタル アバターなど複数のコミュニケーション オプションを利用することができます。 従来のチャットボットやコパイロット アプリケーションでは、ユーザーが問い合わせを入力し、テキストベースの応答を受信するテキスト インターフェイスを使用しています。ハンズフリーのコミュニケーションでは、 自動音声認識 (ASR: Automatic Speech Recognition) や 音声合成 (TTS: Text-To-Speech) などの音声 AI 技術により、電話を使用したカスタマー サービスなどのシナリ...
https://developer.nvidia.com/blog/ai-ran-goes-live-and-unlocks-a-new-ai-opportunity-for-telcos/
AI-RAN Goes Live and Unlocks a New AI Opportunity for Telcos
AI is transforming industries, enterprises, and consumer experiences in new ways. Generative AI models are moving towards reasoning, agentic AI is enabling new outcome-oriented workflows and physical AI is enabling endpoints like cameras, robots, drones, and cars to make decisions and interact in real time. The common ...
https://developer.nvidia.com/ja-jp/blog/ai-ran-goes-live-and-unlocks-a-new-ai-opportunity-for-telcos/
AI-RAN が通信事業者向けに新しい AI のビジネス チャンスをもたらす
Reading Time: 4 minutes AI は、業界、企業、消費者の体験を新しい方法で変革しています。 生成 AI モデルは推論に移行し、 エージェント型 AI は新しい結果重視のワークフローを可能にし フィジカル AI により、カメラ、ロボット、ドローン、自動車などのエンドポイントがリアルタイムで意思決定を行い、対話できるようになります。 これらのユース ケースに共通するのは、普及し、信頼性が高く、安全で、超高速な接続が必要であることです。 通信ネットワークは、フロントホール無線アクセス ネットワークを介して直接送信されるか、エンタープライズ アプリケーションによって生成されるパブリック クラウドまたはプライベート クラ...
https://developer.nvidia.com/blog/developing-a-172b-llm-with-strong-japanese-capabilities-using-nvidia-megatron-lm/
Developing a 172B LLM with Strong Japanese Capabilities Using NVIDIA Megatron-LM
"Generative AI has the ability to create entirely new content that traditional machine learning (ML)(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/developing-a-172b-llm-with-strong-japanese-capabilities-using-nvidia-megatron-lm/
Megatron-LM を用いた日本語に強い 172B 大規模言語モデルの開発
"Reading Time:\n2\nminutes\n生成 AI は、その卓越した能力のおかげで、従来の機(...TRUNCATED)
https://developer.nvidia.com/blog/5x-faster-time-to-first-token-with-nvidia-tensorrt-llm-kv-cache-early-reuse/
5x Faster Time to First Token with NVIDIA TensorRT-LLM KV Cache Early Reuse
"In our previous\nblog post\n, we demonstrated how reusing the key-value (KV) cache by offloading it(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/5x-faster-time-to-first-token-with-nvidia-tensorrt-llm-kv-cache-early-reuse/
NVIDIA TensorRT-LLM の KV Cache Early Reuseで、Time to First Token を 5 倍高速化
"Reading Time:\n2\nminutes\n以前の\nブログ記事\nでは、key-value (KV) キャッシュを C(...TRUNCATED)
https://developer.nvidia.com/blog/state-of-the-art-multimodal-generative-ai-model-development-with-nvidia-nemo/
State-of-the-Art Multimodal Generative AI Model Development with NVIDIA NeMo
"Generative AI\nhas rapidly evolved from text-based models to multimodal capabilities. These models (...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/state-of-the-art-multimodal-generative-ai-model-development-with-nvidia-nemo/
NVIDIA NeMo による最先端のマルチモーダル生成 AI モデル開発
"Reading Time:\n2\nminutes\n生成 AI\nは、テキストベースのモデルからマルチモー(...TRUNCATED)
https://developer.nvidia.com/blog/frictionless-collaboration-and-rapid-prototyping-in-hybrid-environments-with-nvidia-ai-workbench/
Frictionless Collaboration and Rapid Prototyping in Hybrid Environments with NVIDIA AI Workbench
"NVIDIA AI Workbench\nis a free development environment manager that streamlines data science, AI, a(...TRUNCATED)
https://developer.nvidia.com/ja-jp/blog/frictionless-collaboration-and-rapid-prototyping-in-hybrid-environments-with-nvidia-ai-workbench/
"NVIDIA AI Workbench によるハイブリッド環境におけるスムーズなコラボレーシ(...TRUNCATED)
"Reading Time:\n3\nminutes\nNVIDIA AI Workbench\nは、選択したシステムでデータ サイ(...TRUNCATED)
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
37