テキストAIエージェント

テキスト生成と処理を行うAIエージェント

Anthropic

Claude Sonnet 4.5

v4.5

世界最高クラスのコーディング性能と長期タスク処理能力を備え、エージェント運用とコンピュータ操作を強化した最新モデル

エージェント運用
長期タスク
コンピュータ操作
高度推論
claude-sonnet-4-5-20250929

Claude 4 Opus

v4.0

世界最高性能のコーディングモデル(32Kトークン対応)、長時間タスクと複雑な問題解決に特化

最高性能
長時間タスク
複雑な問題解決
コーディング
claude-opus-4-20250514

Claude 4 Sonnet

v4.0

高性能と効率性の完璧なバランス(32Kトークン対応)、次世代の推論能力と処理速度を実現

高性能
効率性
次世代推論
高速処理
claude-sonnet-4-20250514

Claude 3.7 Sonnet

v3.7

最高精度の大規模言語モデル(64Kトークン出力対応)、thinking機能による高度な推論能力を備える

高度な推論
thinking機能
高精度出力
claude-3-7-sonnet-20250219

DeepSeek

DeepSeek Chat

v1.0

20件以上のタスクに最適。100タスクまでの並列処理が可能で、複数のタスクを効率的に処理できる。GPT-4oと同等の推論能力を持つ

並列処理
大規模タスク
効率的処理
deepseek-chat

DeepSeek Reasoner

v1.0

高度な推論と問題解決に特化。複雑な分析や論理的な思考を要するタスクに最適

高度な推論
問題解決
論理分析
deepseek-reasoner

Google

Gemini 2.0 Flash Experimental

v2.0

大規模コード処理とマルチモーダルタスクに特化。ネイティブツール連携とテキスト ・画像の統合生成が可能

マルチモーダル理解
マルチモーダル生成
ネイティブツール利用
research: trueフラグ利用可
gemini-2.0-flash-exp

Gemini 2.5 Flash Preview 05-20

v2.5

agents.text.google.agents.gemini-2-5-flash-preview-05-20.description

gemini-2.5-flash-preview-05-20

Gemini 2.5 Flash Preview 04-17

v2.5

GoogleのWeb検索機能搭載Flashモデル。高速応答と軽量処理が特徴で、効率的なデータ検索と統合処理が可能。日常的なタスクに最適

Web検索機能
高速応答
軽量処理
効率的なデータ検索
gemini-2.5-flash-preview-04-17

Gemini 2.5 Pro Preview 05-06

v2.5

GoogleのWeb検索機能搭載Proモデル。複雑な推論と大規模データ処理に優れ、最新の知識にアクセス可能。高度な問題解決に最適

Web検索機能
複雑な推論
大規模データ処理
最新知識へのアクセス
gemini-2.5-pro-preview-05-06

Gemini 2.5 Pro Preview 06-05

v2.5

Google最新のProモデル(2025年1月知識カットオフ)。コーディング、推論、マルチモーダル理解に最適。複雑な問題の推論、難しいコード・数学・STEM問題の解決、大規模データセット・コードベース・ドキュメントの分析に優れる

コーディング最適化
複雑な推論
マルチモーダル理解
長文コンテキスト分析
gemini-2.5-pro-preview-06-05

Gemini 2.0 Pro Experimental 02-05

v2.0

マルチモーダル理解とリアルタイムストリーミングに特化。大規模コードベースの処 理と高度なツール連携が可能

マルチモーダル理解
リアルタイムストリーミング
ネイティブツール利用
gemini-2.0-pro-exp-02-05

Gemini 2.0 Flash-Lite Preview 02-05

v2.0

長文コンテキストとリアルタイムストリーミングに最適化。効率的なツール利用と高 速なレスポンスを実現

長文コンテキスト
リアルタイムストリーミング
ネイティブツール利用
gemini-2.0-flash-lite-preview-02-05

Gemini 2.0 Flash Thinking Experimental 01-21

v2.0

複雑な問題に対する推論と思考プロセスの可視化に特化。マルチモーダル理解、コー ディング、数学問題の解決に強い

マルチモーダル理解
推論
コーディング
思考プロセス可視化
gemini-2.0-flash-thinking-exp-01-21

Gemini 2.0 Flash Thinking 1219

v2.0

思考実験に特化した推論が可能、アーキテクチャ設計向け

思考実験
アーキテクチャ設計
推論
gemini-2.0-flash-thinking-exp-1219

Gemini Experimental 1206

v1.0

高度な実験的モデルで独自の推論アプローチを持つ。複雑なタスク分解と創造的な問 題解決に優れる。特に科学的推論と数学的分析に強い

複雑なタスク分解
科学的推論
数学的分析
創造的問題解決
gemini-exp-1206

Gemini Exp 1121

v1.0

新機能のプロトタイピングに適した、DevOps実装向け

プロトタイピング
DevOps
新機能開発
gemini-exp-1121

Gemini Exp 1114

v1.0

実験的な機能の検証用、インフラ自動化向け

機能検証
インフラ自動化
実験的機能
gemini-exp-1114

Gemini Pro

v1.0

マルチモーダルタスクに強く、コンテナ設計が得意

マルチモーダル
コンテナ設計
汎用性
gemini-pro

Gemini 1.5 Pro

v1.5

画像認識と生成に優れ、クラウドインフラ構築に適する

画像認識
インフラ構築
マルチモーダル
gemini-1.5-pro

Gemini 1.5 Flash

v1.5

リアルタイム処理に適し、Kubernetes構成設計に最適

リアルタイム処理
Kubernetes
高速処理
gemini-1.5-flash

Gemini 1.5 Flash 8B

v1.5

軽量かつ高速な推論が可能で、マイクロサービス設計向け

軽量推論
マイクロサービス
高速処理
gemini-1.5-flash-8b

LearnLM 1.5 Pro Experimental

v1.5

教育分野のアプリケーションに特化、クラウドネイティブアーキテクチャ設計

教育アプリケーション
クラウドネイティブ
アーキテクチャ設計
learnlm-1.5-pro-experimental

Gemini 2.5 Pro Experimental 03-25

v2.5

Google最新の大規模言語モデル(65Kトークン出力対応)。高度な推論能力と長文コンテキスト処理に優れる。複雑な問題解決やコーディング、数学・STEM分野に特化

高度な推論
長文コンテキスト処理
コーディング
複雑な問題解決
gemini-2.5-pro-exp-03-25

OpenAI

O1

v1.0

高度な推論機能を使用

高度な推論
問題解決
分析
o1

O1 Mini

v1.0

高度な推論を高速に実行

高速推論
効率的処理
軽量化
o1-mini

O3 Mini Low

v3.0

高度な推論において最も高速

最高速処理
高度な推論
効率化
o3-mini-low

O3 Mini High

v3.0

高度な推論はやや低速だが、依然として高速

高度な推論
高速処理
バランス型
o3-mini-high

O1 Low

v1.0

高速な処理を重視した軽量な推論モード

高速処理
軽量推論
効率化
o1-low

O1 Mid

v1.0

バランスの取れた推論モード、一般的なタスクに最適

バランス型
汎用性
標準推論
o1-mid

O1 High

v1.0

複雑なタスクのための高度な推論モード

高度な推論
複雑なタスク
詳細分析
o1-high

O3 Mini Mid

v3.0

バランスの取れた処理能力を提供するO3-miniの標準モード

バランス型
標準処理
汎用性
o3-mini-mid

O3 Mini

v3.0

高度な推論を使用し、高速な処理が特徴

高度な推論
高速処理
効率化
o3-mini

O3 Mini (2025-01-31)

v3.0

O3 Mini(2025-01-31)のバージョン、パフォーマンスと安定性が向上

高速処理
安定性
高性能
o3-mini-2025-01-31

GPT-4 Optimized

v4.0

バックエンドの複雑な推論と創造的なタスクに強い

バックエンド開発
複雑な推論
創造的タスク
gpt-4o

GPT-4.5 Preview

v4.5

最新の拡張機能搭載、高度なバックエンド開発とシステム設計向け

高度な推論
システム設計
最新機能
gpt-4.5-preview

GPT-4

v4.0

高度な推論と創造的タスクが得意、バックエンド設計全般

高度な推論
バックエンド設計
創造的タスク
gpt-4

GPT-4 Turbo Preview

v4.0

最新の知識と高速な処理を提供、APIアーキテクチャ設計向け

API設計
高速処理
最新知識
gpt-4-turbo-preview

GPT-3.5 Turbo

v3.5

一般的なタスクに適したバランス型、バックエンド実装全般

バランス型
バックエンド実装
汎用性
gpt-3.5-turbo

GPT-4 Mini

v4.0

バックエンドの日常的なタスクに適した軽量モデル

軽量処理
日常的タスク
バックエンド開発
gpt-4o-mini

GPT-4.1

v4.1

高精度・高コストな次世代テキスト生成モデル

高精度
大規模推論
最先端
gpt-4.1

GPT-4.1 Mini

v4.1

軽量・高速な次世代テキスト生成モデル

軽量
高速
省コスト
gpt-4.1-mini

GPT-4.1 Nano

v4.1

超軽量・超高速なテキスト生成モデル

超軽量
超高速
省コスト
gpt-4.1-nano

O1 Preview

v1.0

次世代機能のプレビュー用、データベース設計向け

データベース設計
次世代機能
プレビュー
o1-preview

O1 Mini 2024-09-12

v1.0

日常的なタスクに最適化、APIエンドポイント実装向け

API実装
日常タスク
最適化
o1-mini-2024-09-12

O1 Preview 2024-09-12

v1.0

実験的機能の検証用、バックエンド新機能開発向け

機能検証
バックエンド開発
新機能
o1-preview-2024-09-12

O3 Low

v3.0

推論努力レベルが低く、高速な応答が必要な場合に最適

高速応答
効率的処理
基本的な推論
o3-low

O3 Mid

v3.0

バランスの取れた推論努力レベルで、多くのタスクに適している

バランス型推論
汎用性
効率的分析
o3-mid

O3 High

v3.0

最高レベルの推論努力で、複雑な問題に深い分析を提供

深い分析
複雑な推論
詳細な解決策
o3-high

O3 Pro Low

v3.0-pro

O3 Proモデルの低推論努力レベル、高速かつ効率的な処理に最適化。詳細は https://platform.openai.com/docs/models/o3-pro をご覧ください。

超高速応答
効率最適化
プロフェッショナル品質
o3-pro-low

O3 Pro Mid

v3.0-pro

O3 Proモデルの中間推論努力レベル、バランスと品質を両立。詳細は https://platform.openai.com/docs/models/o3-pro をご覧ください。

高品質推論
最適化されたバランス
プロフェッショナル分析
o3-pro-mid

O3 Pro High

v3.0-pro

O3 Proモデルの最高推論努力レベル、最も複雑な課題に対応。詳細は https://platform.openai.com/docs/models/o3-pro をご覧ください。

最高品質の分析
極めて複雑な推論
プロフェッショナル・ソリューション
o3-pro-high

O4 Mini Low

v4.0

最小限の推論努力で高速な応答を提供

超高速応答
基本的な推論
効率性重視
o4-mini-low

O4 Mini Mid

v4.0

中程度の推論努力で効率的な問題解決を実現

効率的推論
バランス型処理
実用的解決策
o4-mini-mid

O4 Mini High

v4.0

O4 Miniの最高レベル推論努力で詳細な分析を提供

詳細分析
高度な推論
質重視処理
o4-mini-high