ファクトはAIによる自動抽出です。誤りが含まれる可能性があります。正確な情報は原資料をご確認ください。
国産LLM日本語性能
100B
Preferred Elementsがスクラッチ開発の100Bモデルで日本語性能GPT-4o超えを達成
国内スタートアップのPreferred Elementsが、スクラッチから開発した1,000億パラメータ規模の日本語LLMにおいてGPT-4oを上回る日本語性能を達成した。国産大規模言語モデルの競争力を実証した成果として注目されている。計算資源調達支援など政府の後押しが国産AI開発の加速につながっている。
計算資源の調達支援(1期目)の成果概要 ABEJA 既存モデルを活用しGPT-3.5を超える性能を達成 sakana.ai GPT-3.5級の小型で効率的なモデルを開発 NII 大学共同利用機関法人 情報・システム研究機構 国立情報学研究所 National Institute of Informatics スクラッチで国内最大級モデルを開発 Stockmark スクラッチで100Bモデルを開発 90%のハルシネーション抑制に注力 TURING 日本語と画像理解の性能が世界最高レベルのVLMを開発 松尾・岩澤研究室 MATSUO-IWASAWA LAB UTokyo 200名以上の生成AIエンジニアを育成 Preferred Elements スクラッチ開発の100Bモデルで 日本語性能GPT-4o超えを達成 ELYZA 既存モデルをマージしたモデルで 日本語性能GPT-4超えを達成 Kotoba Technologies 日本語音声生成で世界一の性能である 7Bの音声基盤モデルを開発 FUJITSU 世界最高性能のナレッジグラフ技術を 活用した基盤モデルを開発 6