Tencent’s open source model Hunyuan-A13B combines fast and slow reasoning

AI

テンセントは新しい言語モデルA13Bをオープンソースとして公開

Sat, 05 Jul 2025 07:23:12 +0000

Tencentは、タスクの複雑さに応じて高速モードと深層モードの間を切り替えることができる新しい言語モデルHunyuan-A13Bをオープンソースとして公開しました。このモデルは、さまざまな問題に対応するために思考スタイルを動的に変化させることができることが特徴です。

ユースケース

Tencentが開発したHunyuan-A13Bは、言語モデルの分野における動的推論の新たなアプローチを提供しています。このAIモデルは、以下のような実用的なシナリオで利用できます。

  1. カスタマーサポート: Hunyuan-A13Bの素早いレスポンスを持つ高速モードは、カスタマーサービスのチャットボットや自動応答システムで、一般的な問い合わせに迅速に対応できます。一方、より複雑な問い合わせには、熟考する深層モードが利用され、より詳細な分析や解決策の提供が可能です。
  2. 教育と学習: Hunyuan-A13Bを適用した教育プラットフォームは、学生の疑問には高速モードで基本的な回答を提供し、より高度な理解や深掘りが要求される場合には熟考できる思考プロセスに切り替わりより発展的な対話を行うことが可能です。
  3. 研究と開発: 研究者は、新しい科学的概念の探索やデータ分析にHunyuan-A13Bを利用することができます。比較的シンプルなデータセットは高速モードで処理し、より複雑なデータ分析には深層モードが適用されます。
  4. ライティングアシスタント: Hunyuan-A13Bは記事の草稿作成や執筆の初期段階で使われることが可能です。基本的な構文や文法チェックには高速モードが、より複雑な物語性や文体に関わる編集には深層モードが用いられます。
  5. ビジネス分析と意思決定支援: Hunyuan-A13Bは市場のトレンド分析やビジネス上のリスク評価に利用できます。速い思考は日々の決定のための概略情報の提供に役立ち、複雑な戦略的決定には詳細な深層モードプロセスが必要です。
  6. エンターテインメントとゲーム: ゲーム内の非プレーヤーキャラクター(NPC)やインタラクティブストーリーテリングでHunyuan-A13Bを活用することで、プレーヤーとのリアルタイムな対話や複雑なシナリオ分岐を可能にします。簡潔なレスポンスから詳細なストーリー展開まで、シームレスに移行することができます。

以下に、上記のユースケースに基づくより詳細な使用シナリオの例を更に展開させることが可能です。

カスタマーサポートの場合、チャットボットが常に高速なデータ処理を必要とするわけではありません。顧客が簡単なクエリを送ったとき、迅速なレスポンスは、顧客満足度を高めるためには不可欠です。
しかしながら、契約内容の変更や技術的な障害など、より複雑な問題に対しては、AIが丁寧に時間をかけて解決策を提供するプロセスが求められます。このように、Hunyuan-A13Bの動的推論能力は、顧客の要望に応じた柔軟な応答を可能にします。

教育と学習ツールでは、速い思考は基本的な定義や事実の確認に活用できる一方で、遅い思考はより複雑な概念の説明や問題解決のプロセスで有用です。

たとえば、生物学における細胞の機能に関する簡単な質問には速い思考で答えることができる一方で、異なる生物学的プロセスがどのように相互作用するかに関する深い議論には、より時間がかかる詳細な思考が求められます。

研究開発では、電子メールや文書の分類などの一般的なタスクには速い思考が適用される一方で、新薬の開発や気候変動の影響を分析するような複雑なタスクには、遅い思考が必要です。遅い思考は新しい仮説の生成や既存の研究結果の深い解釈に役立つでしょう。

ライティングアシスタントとして、Hunyuan-A13Bは高速モードでキーワードの提案や文法チェックを行い、深層モードでストーリーの一貫性やキャラクターの開発など、より創造的なライティングの側面を補助します。

ビジネス分析では、例えば株価の変動や市場の動向に関する日常的な情報提供に速い思考を使用し、新しい投資先の選定やログンタームでのビジネス戦略に関する決定には高速モードでより深い分析を行います。

エンターテインメント産業では、Hunyuan-A13Bはストーリーベースのゲームや役割を演じるゲーム(RPG)において、プレーヤーの選択に即応するストーリーテリングエンジンとして機能します。
高速モードは短い対話や一般的な応答に適しているのに対し、深層モードは重要な決定またはストーリーの展開においてより詳細で練りに練られた対話を生み出します。

TencentのHunyuan-A13Bは、さまざまな分野で融合的な利用が見込まれ、特に対話型のアプリケーションでその柔軟性と適応性が強みとなる可能性があります。この技術を活用することで、ユーザーエクスペリエンスを高め、よりインテリジェントで自然なインタラクションを実現することが期待されます。

Tencent’s open source model Hunyuan-A13B combines fast and slow reasoning https://the-decoder.com/tencents-open-source-model-hunyuan-a13b-combines-fast-and-slow-reasoning/

以下は原文訳です。

Tencentのオープンソースモデル「Hunyuan-A13B」が高速・低速推論を組み合わせる

ジョナサン・ケンパー

ジョナサンはTHE DECODERで、AIツールが仕事やクリエイティブなプロジェクトをどのように向上させるかについて執筆している。

概要

Tencentは、新しい言語モデル「Hunyuan-A13B」をオープンソースとして公開しました。このモデルは、タスクの複雑さに応じて高速思考と低速思考を切り替えることができる、動的な推論アプローチを導入しています。

Hunyuan-A13Bの主要な特徴は、リアルタイムで推論の深さを適応させる能力です。シンプルなクエリに対しては、最小限の推論で迅速な応答を返す高速モードを使用します。

より複雑なプロンプトに対しては、多段階の思考を含むより深い推論プロセスを起動します。ユーザーは、特殊なコマンドでこの動作を切り替えることができます。「/think」で詳細モードを有効にし、「/no_think」で無効にします。

このモデルは、合計800億のパラメーターを持つMixture of Experts(MoE)アーキテクチャを使用していますが、推論時にアクティブになるのはわずか130億です。最大256,000トークンのコンテキストウィンドウをサポートしています。

科学的推論への焦点

Tencentの技術報告書によると、Hunyuan-A13Bは20兆トークンで訓練され、その後、推論タスク用に調整され、より広範なユースケース向けに改良されました。Tencentは、科学分野でのモデルの信頼性を高めるため、STEM分野から2500億トークンを収集しました。

訓練データには、数学の教科書、試験問題、GitHubからのオープンソースコード、論理パズルのコレクション、そして中学校から大学レベルまでの科学テキストが含まれています。

Tencentは、Hunyuan-A13B-Instructが、OpenAI、Deepseek、AlibabaのQwenといった主要モデルと互角に渡り合えると主張しています。2024年のアメリカ数学競技会AIMEでは、OpenAI o1の74.3%に対し、このモデルは87.3%の精度を達成したと報告されています。

しかし、2025年版の結果を見ると、そのような比較が常に明確であるとは限りません。そのラウンドではo1が3%近くリードしています。Tencentはまた、Deepseek-R1の古い1月版に基づいて比較を行っていますが、5月にリリースされたバージョンはAIME 2024と2025でそれぞれ91.4点と87.5点を記録し、大幅に優れたパフォーマンスを発揮しています。

ベンチマークとエージェントタスクでの優位性

ベンチマークは、Hunyuan-A13BがDeepseek-R1、OpenAI o1、Qwen3-A22Bに匹敵し、エージェントベースのタスクで明確なリードを示していることを示しています。| 画像:Tencent

Tencentは、このモデルが自動エージェントタスクやツール使用に優れていると述べています。社内ベンチマークでは、A13Bはほとんどすべてのエージェントベンチマークで最高スコアを記録しました。テストが128,000トークンのコンテキストまで押し上げられた場合でも、Hunyuan-A13BのパフォーマンスはDeepseek-R1およびQwen3-A22Bを上回りましたが、Gemini 2.5 Proには及びませんでした。

コンテキストウィンドウが128,000トークンまであってもパフォーマンスは安定しています。

このモデルは、Apache 2.0ライセンスの下でHugging FaceとGitHubで公開されており、さまざまなデプロイメントフレームワーク向けのすぐに使用できるDockerイメージも提供されています。APIアクセスはTencent Cloudとブラウザデモを通じて提供されています。

Tencentはまた、コード生成用のArtifactsBenchと、エージェントタスク評価用のC3-Benchという2つの新しいベンチマークデータセットも公開しました。

Tencentの動的推論戦略は、他の主要なAI研究機関で見られるトレンドと一致しています。異なる推論モードを切り替えるというコンセプトは、Claude 3.7 SonnetやQwen3のような最近のモデルにも見られ、これらも適応的な推論をサポートしています。


TencentのAI研究の動向

Tencentの言語モデルへの移行は、以前のビデオ生成に関する研究に続くものです。2024年12月には、同社はHunyuanVideoを立ち上げ、3月には推論に特化したLLMであるHunyuan-T1をリリースしました。Tencentは、Hunyuan-T1がすでにOpenAI o1のパフォーマンスに匹敵すると述べています。

概要

Tencentは、新しい言語モデルHunyuan-A13Bをオープンソースとして公開しました。これは、基本的なタスク向けの高速モードと、複雑なクエリ向けの深層モードという2つの推論モードを特徴とし、「/think」や「/no_think」などのコマンドを使用して切り替えることができます。

このモデルは、合計800億のパラメーターを持つMixture of Experts設計を使用しており、そのうち130億が推論時にアクティブになります。また、最大256,000トークンのテキストを処理する能力があります。

Hunyuan-A13Bは、20兆トークンで訓練され、数学、プログラミング、科学などのSTEM分野からの2500億トークンを含んでいます。テストデータセットとともにApache 2.0ライセンスの下でHugging FaceとGitHubで利用可能です。

以上

コメント

タイトルとURLをコピーしました