OpenGPTAndBeyond
1.0.0
簡体字中国語 |
オープンソース ChatGPT モデルの実装と超越への道
LLaMA 重みの偶発的な漏洩と、gpt-3 API から自己命令方式で構築されたデータを使用した Stanford Alpaca の LLaMA 命令微調整の素晴らしいパフォーマンス以来、オープンソース コミュニティは、大規模な重みを実現することにますます関心を持つようになりました。 ChatGPT レベルの言語モデルに期待が高まります。
このリポジトリは、この再生産と超越のプロセスを記録し、コミュニティに概要を提供することを目的としています。
含まれるもの: 関連する技術の進歩、基本モデル、ドメイン モデル、トレーニング、推論、テクノロジー、データ、多言語、マルチモダリティなど。
寄稿者 | モデル/プロジェクト | ライセンス | 言語 | 主な機能 |
---|---|---|---|---|
メタ | ラマ/ラマ2 | マルチ | LLaMA-13B は GPT-3(175B) を上回り、LLaMA-65B は PaLM-540M と競合します。 ほとんどの後続作品のベースモデル。 | |
ハグフェイスビッグサイエンス | 咲く | マルチ | HuggingFace BigScience によってトレーニングされた自己回帰大規模言語モデル (LLM)。 | |
ハグフェイスビッグサイエンス | ブルームズ | マルチ | BLOOM および mT5 の命令微調整バージョンは、言語を超えたタスクの混合で事前トレーニングされた多言語言語モデルです。 | |
エレウザーAI | GPT-J | jp | Ben Wang の Mesh Transformer JAX を使用してトレーニングされたトランス モデル。 | |
メタ | オプト | jp | オープン事前トレーニング済み Transformer 言語モデル。この OPT モデル スイートの開発の目的は、再現性を可能にすることです。 責任ある研究を大規模に実施し、これらの LLM の影響を研究する際により多くの声を上げます。 | |
大脳システム | Cerebras-GPT | jp | 事前トレーニング済み LLM、GPT-3 のような、市販されており、Andromeda AI スーパーコンピューターで効率的にトレーニングされ、 チンチラのスケーリング則 (モデル パラメーターごとに 20 トークン) に従ってトレーニングされており、計算効率が最適です。 | |
エレウザーAI | パイソン | jp | 解釈可能性分析とスケーリング法則を組み合わせて、知識がどのように発展するかを理解する 自己回帰トランスフォーマーのトレーニング中に進化します。 | |
安定性AI | StableLM | jp | 安定性 AI 言語モデル | |
FDU | 苔 | 英語/中国語 | 復旦大学によるオープンソースのツールで拡張された会話言語モデル。 | |
非対称&FDU | BBT-2 | zh | 12B オープンソース LM。 | |
@mlfoundation | オープンフラミンゴ | jp | 大規模なマルチモーダル モデルをトレーニングするためのオープンソース フレームワーク。 | |
エレウザーAI | GPT-NeoX-20B | jp | そのアーキテクチャは意図的に GPT-3 に似ており、GPT-J-6B のアーキテクチャとほぼ同一です。 | |
UCB | OpenLLaMA | アパッチ-2.0 | jp | LLaMA の公開複製。 |
モザイクML | MPT | アパッチ-2.0 | jp | MPT-7B は GPT スタイルのモデルで、MosaicML Foundation シリーズの最初のモデルです。 MosaicML で厳選されたデータセットの 1T トークンでトレーニングされた MPT-7B はオープンソースであり、 商業的に使用可能であり、評価指標に関しては LLaMa 7B と同等です。 |
一緒にコンピューター | RedPajama-INCITE-Base-3B-v1 | アパッチ-2.0 | jp | RedPajama-Data-1T で事前トレーニングされた 2.8B パラメーターの事前トレーニング済み言語モデル、 命令チューニング版とチャット版も一緒に。 |
ライトニングAI | Lit-LLaMA | アパッチ-2.0 | - | Apache 2.0 ライセンスの下で完全にオープンソースである LLaMA の独立した実装。 |
@conceptofmind | PLM | MITライセンス | jp | Google PaLM モデルのオープンソース実装。 |
TII | ファルコン-7B | TII ファルコン LLM ライセンス | jp | TII によって構築され、厳選されたコーパスで強化された RefinedWeb の 1,500B トークンでトレーニングされた、7B パラメーターの因果デコーダー専用モデル。 |
TII | ファルコン-40B | TII ファルコン LLM ライセンス | マルチ | TII によって構築され、厳選されたコーパスで強化された RefinedWeb の 1,000B トークンでトレーニングされた 40B パラメーターの因果デコーダー専用モデル。 |
タイガー研究 | タイガーボット | アパッチ-2.0 | 英語/中国語 | 多言語およびマルチタスクの LLM。 |
バーイ | アクイラ/アクイラ2 | BAAI_Aquila_Model_License | 英語/中国語 | Aquila 言語モデルは、GPT-3 と LLaMA のアーキテクチャ設計の利点を継承し、より効率的な基盤となるバッチを置き換えます。 演算子の実装と中国語と英語のバイリンガル サポートのためのトークナイザーの再設計。 |
OpenBMB | CPM-Bee | ユニバーサル モデル ライセンス契約 - 出典表明 - 宣伝制限 - 商用認可 | 英語/中国語 | CPM-Beeは完全にオープンソースで、商用利用可能な中国語と英語のバイリンガル基本モデルであり、100 億個のパラメータの容量を備えています。 そして、兆規模のトークンの広範なコーパスで事前トレーニングされています。 |
白川 | バイチュアン-7B | アパッチ-2.0 | 英語/中国語 | 標準で同サイズの機種の中で最高の性能を実現 中国語と英語の権威あるベンチマーク (C-EVAL、MMLU など)。 |
テンセント | ライラチャットGLM | MITライセンス | 英語/中国語 | 私たちの知る限り、これはChatGLM-6B の最初の高速化バージョンです。 lyraChatGLM の推論速度は、初期のオリジナル バージョンと比較して300 倍の高速化を達成しました。 今後もさらなるパフォーマンスの向上を目指して努力してまいります。 |
セールスフォース | XGen | アパッチ-2.0 | マルチ | 8k シーケンス長の Salesforce オープンソース LLM |
上海AIラボ | インターンLM | アパッチ-2.0 | 英語/中国語 | InternLM は、70 億パラメータのベース モデルと実用的なシナリオに合わせて調整されたチャット モデルをオープンソース化しています。このモデルには次の特徴があります。 強力な知識ベースを確立するためのトレーニングに何兆もの高品質トークンを活用します。 8k コンテキスト ウィンドウ長をサポートし、より長い入力シーケンスとより強力な推論機能を可能にします。 ユーザーが独自のワークフローを柔軟に構築できる多用途のツールセットを提供します。 |
xverse-ai | クロスバース | アパッチ-2.0 | マルチ | XVERSE Technology Inc.が開発した多言語LLM |
ライター | パルミラ | アパッチ-2.0 | jp | このモデルは非常に高速でありながら、非常に強力です。 感情の分類や要約など。 |
ミストラルAI | ミストラル | アパッチ-2.0 | jp | Mistral 7B は、次のような 7.3B パラメータ モデルです。 1. すべてのベンチマークで Llama 2 13B を上回るパフォーマンス 2. 多くのベンチマークで Llama 1 34B を上回るパフォーマンス 3. 英語タスクに優れたままでありながら、コード上で CodeLlama 7B のパフォーマンスに近づく 4. 推論を高速化するためにグループ化クエリ アテンション (GQA) を使用する 5. スライディング ウィンドウ アテンション (SWA) を使用して、より少ないコストで長いシーケンスを処理します。 |
スカイワークAI | スカイワーク | - | 英語/中国語 | 主要な評価ベンチマークでは、Skywork-13B は中国のオープンソース モデルの最前線にあり、同じパラメータ スケールの下で最適なレベルです。 アプリケーションなしで商業的に使用でき、600G (1,500 億トークン) の中国のデータセットもオープンソース化されています。 |
01.AI | イー | - | 英語/中国語 | Yiシリーズ モデルは、01.AI の開発者によってゼロからトレーニングされた大規模な言語モデルです。 |
IEITシステム | 元-2.0 | - | 英語/中国語 | この研究では、ローカライズド フィルタリング ベースのアテンション (LFA) が導入され、自然言語のローカルな依存関係に関する事前知識がアテンションに組み込まれます。 LFA に基づいて、21 億から 1,026 億の範囲のパラメータを持つ大規模な言語モデルであるデータのフィルタリングおよび生成手法を開発およびリリースしています。 高品質の事前トレーニングおよび微調整データセットを構築するために、不均一パイプライン並列、データ並列、およびオプティマイザー並列を使用した分散トレーニング方法が提案されています。 これにより、ノード内通信の帯域幅要件が大幅に軽減され、大規模な分散トレーニングで優れたパフォーマンスが実現されます。 Yuan 2.0 モデルは、既存のモデルと比較して、コード生成、数学の問題解決、チャットにおいて優れた能力を示します。 |
ナンベージュ | ナンベージュ | アパッチ-2.0 | 英語/中国語 | Nanbeige-16B は、Nanbeige LLM Lab によって開発された 160 億パラメータの言語モデルです。事前トレーニングに 2.5T トークンを使用し、大量の高品質なインターネット コーパス、さまざまな書籍、コードなどを含んでいます。このリリースには、Base、Chat、Base-32k、および Chat-32k が含まれています。 |
ディープシークアイ | ディープシーク LLM | MITライセンス | 英語/中国語 | 670 億のパラメータで構成される高度な言語モデルは、英語と中国語の 2 兆トークンの膨大なデータセットでゼロからトレーニングされました。 |
LLM360 | LLM360 | - | - | ほとんどのオープンソース LLM リリースにはモデルの重みと評価結果が含まれていますが、モデルの動作を真に理解するには追加情報が必要になることが多く、通常、この情報はほとんどの研究者が利用できるものではありません。そのため、私たちはすべての中間チェックポイントをリリースすることに取り組んでいます。トレーニング中に収集されたすべてのトレーニング データ (およびそのチェックポイントへのマッピング)、収集されたすべてのメトリクス (損失、勾配ノルム、評価結果など)、および前処理データとモデル トレーニング用のすべてのソース コード。アーティファクトが役に立つ研究者や実践者が LLM の構築プロセスを詳しく調べ、モデルのダイナミクスの分析などの研究を実施できるように、LLM360 が高度な LLM の透明性を高め、小規模の研究室での研究を促進し、AI 研究の再現性を向上させるのに役立つことを期待しています。 |
FDUなど | CT-LLM | - | 中国語/英語 | CT-LLM は中国語に重点を置き、主に 8,000 億の中国語、3,000 億の英語、1,000 億のコード トークンを含む 1 兆 2,000 億のトークン コーパスからの中国語データを使用します。データ処理と Massive Appropriate Pretraining Chinese Corpus (MAP-CC)、および Chinese Hard Case Benchmark (CHC-Bench) の導入により、さらなる研究とイノベーションを奨励します。より包括的で適応性のある言語モデルを実現します。 |
タイガーラボ | マップネオ | - | 中国語/英語 | データ処理からモデルのトレーニング、モデルの重み付けまでのプロセス全体がオープンソースとなった初の大規模モデル。 |
データキャンプ | DCLM | - | - | 生データの処理、トークン化、データ シャッフル、モデル トレーニング、およびパフォーマンス評価のためのツールとガイダンスを提供します。ベーシックなベースラインの7Bモデルは優れたパフォーマンスを発揮します。 |
寄稿者 | モデル | ドメイン | 言語 | ベースモデル | 主な機能 |
---|---|---|---|---|---|
ユタ州南西部/ UIUC/OSU/HDU | チャットドクター | 医学 | jp | ラマ | おそらく、LLaMA で調整された最初のドメイン固有のチャット モデルでしょう。 |
ケンブリッジ | ビジュアルメッドアルパカ | 生物医学的 | jp | LLaMA-7B | 生物医学分野向けに特別に設計されたマルチモーダル基礎モデル。 |
打つ | BenTsao/ChatGLM-Med | 医学 | zh | LLaMA/チャットGLM | gpt3.5 API を使用して生成された中国の医学知識データセットで微調整されています。 |
上海テックなど | ドクターGLM | 医学 | 英語/中国語 | チャットGLM-6B | ChatGLM-6B上で微調整された中国医療相談モデル。 |
木曜航空 | BioMedGPT-1.6B | 生物医学的 | 英語/中国語 | - | 2D 分子グラフとテキストを関連付ける、1.6B パラメーターを備えた事前トレーニング済みのマルチモーダル分子基盤モデル。 |
@LiuHC0428 | LawGPT_ja | 法律上の | zh | チャットGLM-6B | Reliable-Self-Instruction によって生成されたデータに基づいてトレーニングされた、中国の法的領域の一般的なモデル。 |
SJTU | 医療GPT-zh | 医学 | zh | チャットGLM-6B | 中国医学領域の一般的なモデル、自己指導によって生成された多様なデータ。 |
SJTU | PMC-ラマ | 医学 | zh | ラマ | 医学論文に関する LLaMA のトレーニングを継続します。 |
ハグ顔 | スターコーダー | コード生成 | jp | - | ソース コードと自然言語テキストでトレーニングされた言語モデル (LM) には、以上のものが組み込まれています。 80 種類のプログラミング言語のほか、GitHub の課題やコミット、ノートブックから抽出されたテキスト。 |
@CogStack | NHS-LLM | 医学 | jp | はっきりしない | OpenGPT を使用してトレーニングされた医療用の会話モデル。 |
@pengxiao-song | ローグPT | 法律上の | zh | LLaMA/チャットGLM | 中国の法律用語で語彙を拡張し、自己指導を使用して生成されたデータに関する微調整された指導を行います。 |
独暁曼 | 玄源 | ファイナンス | zh | ブルーム-176B | 数千億のパラメータを持つ大規模な中国の金融チャット モデル。 |
香港 | HuatuoGPT | 医学 | zh | はっきりしない | HuatuoGPT、膨大な中国語の医学コーパスで訓練された大規模言語モデル (LLM) HuatuoGPT の目的は次のとおりです。 医療相談シナリオのためのより専門的な「ChatGPT」を構築します。 |
PKU | 弁護士LLaMA | 法律上の | zh | ラマ | 中国の法律データに関する事前トレーニング、法律試験および法律コンサルティング QA ペアに合わせた指導を継続します。 |
木 | レクシーロー | 法律上の | zh | チャットGLM-6B | 一般データ (BELLE 1.5M) と法的データの混合でトレーニング |
木曜日など | タオリ | 教育 | zh | ラマ | 国際的な中国語教育のための大きなモデル。基本モデルに特定の語彙を拡張します。 また、命令の微調整にはドメイン独自のデータセットを使用します。 |
NUS | ヤギ | 算術 | jp | ラマ | さまざまな算術タスクで GPT-4 を大幅に上回る、微調整された LLaMA モデル。 合成的に生成されたデータセットで微調整された Goat は、BIG ベンチ算術サブタスクで最先端のパフォーマンスを達成します。 |
CU/NYU | フィンGPT | ファイナンス | jp | - | 金融大規模言語モデル (FinLLM) のためのエンドツーエンドのオープンソース フレームワーク。 |
マイクロソフト | ウィザードコーダー | コード生成 | jp | スターコーダー | 78k の進化したコード命令でトレーニングされ、HumanEval ベンチマークでClaude-Plus (+6.8) 、 Bard (+15.3) 、 InstructCodeT5+ (+22.3)を上回りました。 |
UCAS | コーヌコピア | ファイナンス | zh | ラマ | 中国の金融知識に関するLLaMAのファインチューン、 |
PKU | チャットロウ | 法律上の | zh | ジヤ/アニマ | 中国の法的ドメインモデル。 |
@michael-wzhu | チャットメッド | 医学 | zh | ラマ | LLaMA-7Bに基づく中国医学LLM。 |
スカット | ソウルチャット | メンタルヘルス | zh | チャットGLM-6B | ChatGLM-6B に基づくメンタルヘルス領域の中国語対話 LLM。 |
@shibing624 | 医療GPT | 医学 | zh | チャットGLM-6B | ChatGPT トレーニング パイプラインを使用して独自の医療 GPT モデルをトレーニングします。 |
BJTU | トランスGPT | 交通機関 | zh | LLaMA-7B | 中国の輸送モデル。 |
バーイ | アクイラコード | コード生成 | マルチ | アクイラ | AquilaCode-multi は、Python/C++/Java/Javascript/Go など、さまざまなプログラミング言語の高精度なコード生成をサポートする多言語モデルです。 HumanEval (Python) 評価では、HumanEval-X の Pass@1、Pass@10、および Pass@100 スコアがそれぞれ 26/45.7/71.6 という素晴らしい結果を達成しました。 多言語コード生成の評価では、同様のパラメーターを持つ他のオープンソース モデルを大幅に上回っています (2023 年 7 月 19 日時点)。 一方、AquilaCode-py は、Python コード生成に焦点を当てたモデルの単一言語 Python バージョンです。 HumanEval 評価でも、Pass@1、Pass@10、Pass@100 のスコアが 28.8/50.6/76.9 と優れたパフォーマンスを示しています (2023 年 7 月 19 日現在)。 |
メタ | CodeLLaMA | コード生成 | マルチ | LLaMA-2 | Llama 2 に基づくコード用の大規模言語モデルのファミリーで、オープン モデルの中で最先端のパフォーマンス、埋め込み機能、 大規模な入力コンテキストのサポートと、プログラミング タスクのゼロショット命令追従機能。 |
ニューサウスウェールズ州など | ダーウィン | 自然科学 | jp | LLaMA-7B | 主に物理学、化学、材料科学などの自然科学向けの初のオープンソース LLM。 |
アリババ | EcomGPT | 電子商取引 | 英語/中国語 | ブルームズ | 電子商取引向けに命令調整された大規模言語モデル。 |
タイガーアイラボ | マンモス | 数学 | jp | LLaMA2/CodeLLaMA | 一般的な数学の問題解決に特化した一連のオープンソース大規模言語モデル (LLM)。MAmmoTH モデルは MathInstruct でトレーニングされます。 MathInstruct は、慎重に精選された命令調整データセットであり、軽量でありながら一般化可能であり、13 の数学的理論的データセットからコンパイルされています。 そのうちの 6 つは、この研究によって新たに厳選されており、思考連鎖 (CoT) と思考プログラム (PoT) の理論的根拠のハイブリッドな使用に独自に焦点を当てています。 多様な数学分野を広範囲にカバーします。 |
SJTU | アベル | 数学 | jp | LLaMA2 | 私たちは、保護者監視* 、教師あり微調整のためのベビーシッター戦略を提案します。 Parental Oversight 、特定のデータ処理方法に限定されるものではなく、生成 AI GAI の時代における教師あり微調整の指針となるデータ処理哲学を定義します。 。 |
FDU | DISC-LawLLM | 法律上の | zh | バイチュアン-13B | FudanDISC は、大規模な言語モデルによって駆動される中国のインテリジェント法システムである DISC-LawLLM をリリースしました。 さらに、DISC-Law-Eval は、客観的および主観的な側面の両方から大規模な法的言語モデルを評価するように構築されています。 このモデルには、既存の大規模な法的モデルと比較して明らかな利点があります。 チームはまた、300,000 の高品質の教師あり微調整 (SFT) データセット、DISC-Law-SFT も利用できるようにしました。 |
香港など | チャット精神科医 | メンタルヘルス | jp | LLaMA-7B | このリポジトリは、カウンセリング ドミアン命令データで微調整された Instruct-tuned LLaMA-7B モデルをオープンソース化します。 8K サイズの命令チューニング データセットを構築するために、実際のカウンセリング対話の例を収集し、抽出器およびフィルターとして GPT-4 を採用しました。 さらに、ドメインカウンセリングの評価基準を組み込むことで、LLM+カウンセリングドメインに特化した包括的な指標セットを導入しました。 これらの指標により、多次元のカウンセリング スキルを含む言語コンテンツの生成におけるパフォーマンスの評価が可能になります。 |
CAS | スターウィスパー | 天文学的な | zh | - | StarWhisper は大規模な天文モデルであり、専門家によってラベル付けされた天体物理コーパスの微調整を通じてモデルの推論ロジックと整合性が大幅に向上します。 Keguei AI Research Institute と LanguageX AI Lab が共同で発行した CG-Eval では、論理的な長文トレーニングと直接優先度の最適化が総合 2 位を獲得しました。 GPT-4 のすぐ下にあり、その数学的推論と天文学的能力は GPT 3.5 Turbo に近いかそれを上回っています。 |
ZhiPuAI | フィンGLM | ファイナンス | zh | チャットGLM | SMP2023-ELMFT(金融技術の大規模モデルの評価)のソリューション。 |
PKUなど | コードシェル | コード生成 | 英語/中国語 | - | CodeShell は、北京大学のナレッジ コンピューティング研究所と四川天府銀行の AI チームが共同開発したコード大規模言語モデル (LLM) であり、CodeShell には 70 億のパラメータがあります。 は 5,000 億のトークンでトレーニングされ、コンテキスト ウィンドウの長さは 8,192 です。権威あるコード評価ベンチマーク (HumanEval および MBPP) では、CodeShell はその規模のモデルで最高のパフォーマンスを達成します。 |
FDU | DISC-FinLLM | ファイナンス | zh | Baichuan-13B-チャット | DISC-FinLLM は、金融分野における大規模な言語モデルです。これは、金融コンサルティング、財務コンサルティング、金融シナリオの 4 つのモジュールで構成されるマルチエキスパートのインテリジェント金融システムです。 財務テキスト分析、財務計算、財務知識の検索と質問応答。 |
ディープシーク | ディープシークコーダー | コード生成 | 英語/中国語 | - | Deepseek Coder は、英語と中国語のコード 87% と自然言語 13% の両方でトレーニングされた一連のコード言語モデルで構成されており、各モデルは 2T トークンで事前トレーニングされています。 コーディング機能に関しては、Deepseek Coder は、複数のプログラミング言語およびさまざまなベンチマークのオープンソース コード モデルの中で最先端のパフォーマンスを実現します。 |
マイクロソフト | 数学タコ | 数学 | マルチ | LLaMA2 | この研究は、強力な多言語数学推論 (xMR) LLM の探索と構築の先駆者であり、これを達成するために次の作業を行います。 1. MGSM8KInstruct は、10 の異なる言語を含む初の多言語数学推論命令データセットであり、xMR タスクにおけるトレーニング データ不足の問題に対処します。 2. モデルの多言語数学的機能のより徹底的かつ包括的な評価を行うための、ドメイン外 xMR テスト データセットであるMSVAMP 。 3. 当社の効果的な多言語数学推論 LLM であるMathOctopus は、さまざまな戦略でトレーニングされ、従来のオープンソース LLM を著しく上回るパフォーマンスを示し、数ショットのシナリオでは ChatGPT よりも優れています。 |
アイトレック | Zh-MT-LLM | 海事 | 英語/中国語 | チャットGLM3-6b | トレーニング データは、3 つの主要セグメント用に編成された海事ドメイン データ Zh-mt-sft と、特に CrimeKgAssitant-1.8w、Zh-law-qa、および 30w の一般会話 datamoss-003-sft-data を使用します。海事法規に関するQ&A、海事教育および訓練に関するZh-edu-qaおよびZh-edu-qb、および海事に関する専門知識に関するQ&A。 |
@SmartFlowAI | EmoLLM | メンタルヘルス | zh | - | EmoLLMは、メンタルヘルス カウンセリングにおいて、ユーザーの理解、ユーザーのサポート、ユーザーの支援というリンクをサポートできる一連の大規模なメンタルヘルス モデルであり、 LLM 指示によって微調整されます。 |
いくつかの医療モデル: ここ
一部のドメイン llms: Awesome-Domain-LLM
治癒モデル: Awesome-Healthcare-Foundation-Models
寄稿者 | モデル/プロジェクト | 言語 | ベースモデル | 主な機能 |
---|---|---|---|---|
スタンフォード | アルパカ | jp | LLaMA/オプト | Self-Instructt 技術によって生成された 52K の命令追従データを使用して 7B LLaMA を微調整します。 結果として得られるモデル Alpaca は、Self-Instruct 命令追従評価スイートの text-davinci-003 モデルと同様に動作します。アルパカは多くの後継モデルにインスピレーションを与えてきました。 |
リアンジアテック | ベル | 英語/中国語 | ブルームズ-7B1-mt | おそらくアルパカに続く最初の中国人モデルです。 |
木 | チャットGLM-6B | 英語/中国語 | - | 中国の有名モデル。 |
データブリック | ドリー | jp | GPT-J6B | 2年前のモデルをアルパカのデータで微調整、驚くほどのクオリティを発揮する「GPT-J」 命令に従う動作は、その基礎となる基礎モデルの特徴ではありません。 |
@tloen | アルパカ-LoRA | jp | LLaMA-7B | 1 台の RTX 4090 で数時間以内にトレーニングが完了し、 低ランク適応 (LoRA) を使用してスタンフォード アルパカの結果を再現します。 そしてRaspberry pi上で実行できます。 |
巨大AI | コアティ7B | 英語/中国語 | LLaMA-7B | ColossalChat プロジェクトによって開発された大規模な言語モデル |
上海AIラボ | LLaMAアダプター | jp | LLaMA-7B | 1 時間以内の指示と 120 万のパラメータに従うように LLaMA を微調整する |
エーテルコーテックス | ラマX | jp | ラマ | LLaMA を SOTA LLM に改善するための学術研究を公開します。 |
一緒にコンピューター | オープンチャットキット | jp | GPT-NeoX-20B | OpenChatKit は、さまざまなアプリケーションに特化したチャットボットと汎用チャットボットの両方を作成するための強力なオープンソース ベースを提供します。 このキットには、命令調整された言語モデル、モデレーション モデル、および以下を含めるための拡張可能な検索システムが含まれています。 カスタム リポジトリからの最新の応答。 |
ノミックアイ | GPT4すべて | jp | ラマ | コード、ストーリー、ダイアログなどのクリーンなアシスタント データの膨大なコレクションに基づいてトレーニングされています |
@ymcui | チャイニーズ-LLaMA-アルパカ | 英語/中国語 | LLaMA-7B/13B | オリジナルのLLaMAに基づいて中国語の語彙を拡張し、二次事前トレーニングに中国語データを使用します。 さらに、このプロジェクトでは中国語の指導データも使用されます。 中国の LLaMA に基づいて微調整し、モデルの命令の理解と実行を大幅に向上させます。 |
カリフォルニア大学バークレー校 スタンフォード CMU | ビクーニャ | jp | LLaMA-13B | 90% の ChatGPT 品質を備えた GPT-4 の印象。 |
UCSD/SYSU | ベーズ | 英語/中国語 | ラマ | LoRA で微調整されており、ChatGPT 自体とチャットさせることで生成された 100k のダイアログが使用されます。 アルパカのデータはパフォーマンス向上にも活用されています。 |
カリフォルニア大学バークレー校 | コアラ | jp | ラマ | チームは、できるだけ多くの Web データをスクレイピングして量を最大化するのではなく、小規模で高品質なデータセットを収集することに重点を置いています。 |
@imClumsyPanda | langchain-ChatGLM | 英語/中国語 | チャットGLM-6B | langchain を使用したローカル知識ベースの ChatGLM。 |
@yojianxin1 | ホタル | zh | ブルーム-1b4-zh ブルーム-2b6-zh | 中国語データセットの命令チューニング、ZeRO、テンソル並列処理。 メモリ消費を効果的に削減し、トレーニング効率を向上させるために使用されます。 |
マイクロソフト | GPT-4-LLM | 英語/中国語 | ラマ | 教師あり学習と強化学習を使用して命令に従う LLM を構築するために、GPT-4 によって生成されたデータを共有することを目的としています。 |
ハグフェイス | スタックラマ | jp | ラマ | StackExchange データでトレーニングされており、主な目標は、チュートリアルおよびウォークスルーとして機能することです。 主にモデルのパフォーマンスではなく、RLHF を使用してモデルをトレーニングする方法。 |
ネビュリー | チャットラマ | jp | - | 自分のデータと可能な限り最小限のコンピューティングを使用して、ハイパーパーソナライズされた ChatGPT のようなアシスタントを作成できるライブラリ。 |
@junconmoo | チャットラマ | jp | ラマ | LLaMA ベースの RLHF モデル。単一の GPU で実行可能。 |
@junconmoo | ミニチャットGPT | jp | GPT/オプト... | ColossalAIを使用して5分でChatGPTをトレーニングするには。 |
@LC1332 | Luotuo-中国語-LLM | zh | LLaMA/チャットGLM | colab を使用して、細かく調整された中国語モデルの命令が提供されます。 |
@ファシコ | 中国料理ビクーニャ | zh | ラマ | 中国語の命令に従う LLaMA ベースのモデル。Lora で微調整され、cpp 推論がサポートされ、colab が提供されます。 |
@yanqiangmiffy | InstructGLM | 英語/中国語 | チャットGLM-6B | ChatGLM ベースの命令追従モデルは、さまざまなデータ ソースで微調整され、ディープスピード アクセラレーションと LoRA をサポートします。 |
アリババ | ウォンバット | jp | ラマ | RLHF の代替として、RRHF と呼ばれる新しい学習パラダイムが提案されています。 さまざまなサンプリング ポリシーを学習し、ランキングの損失とパフォーマンスを通じて人間の好みに合わせることを学習します。 RLHF と同等ですが、プロセスで使用されるモデルが少なくなります。 |
@WuJunde | アルパカグラスオフ | jp | ラマ | ミニ画像対応の Chat AI は、stanford-alpaca および alpaca-lora に基づいて、自分のラップトップ上で実行できます。 |
@JosephusCheung | グアナコ | マルチ | LLaMA-7B | 多言語の命令に従う言語モデル。 |
@FreedomIntelligence | LLM動物園 | マルチ | ブルームズ/ラマ | 大規模な言語モデルのデータ、モデル、評価ベンチマークを提供するプロジェクト。 発売モデル:フェニックス、キメラ |
SZU | リンリー | 英語/中国語 | ラマ | 中国語の語彙の拡張、完全に微調整されたモデル、最大規模の LLaMA ベースの中国語モデル、中国語の命令データの集約、再現可能な詳細。 |
@ラミニあい | ラミニ | マルチ | - | 命令追従 LLM をトレーニングするための命令を生成するためのデータ ジェネレーター。 |
安定性AI | 安定したビクーニャ | jp | ラマ | Vicuna v0 13b のさらに命令が微調整され、RLHF でトレーニングされたバージョンで、Vicuna よりも優れたパフォーマンスを備えています。 |
ハグフェイス | ハグチャット | jp | ラマ | ChatGPT に似たプラットフォームとしてアクセスできる最初のもののようです。 |
マイクロソフト | ウィザードLM | jp | ラマ | Evol-Instruct は、70,000 の進化した命令でトレーニングされ、人間の代わりに LLM を使用して自動的に大量生産する新しい方法です。 LLM のパフォーマンスを向上させるために、さまざまな難易度およびスキル範囲のオープンドメイン命令を提供します。 |
FDU | Open中国語LLaMA | 英語/中国語 | LLaMA-7B | 中国データで LLaMA をさらに事前トレーニングし、中国タスクでの LLaMA のパフォーマンスを向上させます。 |
@chenfeng357 | オープン中国語-ChatLLaMA | 英語/中国語 | ラマ | オープンソースの Chinese-Llama モデルの完全なトレーニング コード。トレーニング前の指導と RLHF からの完全なプロセスが含まれます。 |
@FSoft-AI4Code | コードカピバラ | jp | ラマ | コード生成のための命令チューニングに従うオープンソース LLaMA モデル。 |
@mbzuai-nlp | ラミニLM | jp | LLaMA/フラン-T5... | 大規模な命令から抽出されたモデルの多様な群れ。 |
NTU | パンダ | 英語/中国語 | ラマ | 中国データ、フルサイズの LLaMA モデルでのさらなる事前トレーニング。 |
IBM/CMU/MIT | ヒトコブラクダ | jp | LLaMA-65B | 人間の監督を最小限に抑えながら、原則に基づいてゼロから言語モデルを自己調整します。 |
@melodydreamj | ウィザードビクーニャLM | マルチ | ビクーニャ | Wizard のデータセット + ChatGPT の会話拡張機能 + Vicuna のチューニング方法、 Vicuna と比較して約 7% のパフォーマンス向上を達成しました。 |
サンバノバシステムズ | ブルームチャット | マルチ | 咲く | BLOOMChatは1760億パラメータの多言語チャットモデルであり、BLOOM(176B)からチューニングされた命令です。 アシスタント スタイルの会話データセットであり、複数の言語での会話、質問応答、生成された回答をサポートします。 |
TII | Falcon-7B-命令 | jp | ファルコン-7B | Falcon-7B に基づいて TII によって構築され、チャット/指示データセットの混合に基づいて微調整された 7B パラメーター因果デコーダー専用モデル。 |
TII | Falcon-40B-命令 | マルチ | ファルコン-40B | Falcon-40B に基づいて TII によって構築され、Baize の混合物に基づいて微調整された 40B パラメーターの因果デコーダー専用モデル。 |
USTCなど | エキスパートLLaMA | jp | ラマ | インコンテキスト学習を使用して、カスタマイズされた専門家 ID を自動的に作成すると、非常に満足のいく品質が得られます。 次に、対応するエキスパート ID を各指示の先頭に追加して、拡張された指示に従うデータを生成します。 私たちは全体的なフレームワークをExpertPromptingと呼びます。詳細については論文を参照してください。 |
ジュウ | CaMA | 英語/中国語 | ラマ | 語彙を拡張することなく、中国語のコーパスでさらに事前トレーニングされ、情報抽出 (IE) タスクで最適化されています。 LoRA 命令微調整スクリプトだけでなく、大規模なコーパスの変換、構築、読み込みを含む事前トレーニング スクリプトも利用できます。 |
木 | ウルトラチャット | jp | ラマ | まず、UltraChat データセットは、チャットボットのトレーニングのための豊富なリソースを提供します。次に、LLaMA モデルを微調整することによって、 研究者らは、優れたパフォーマンスを備えた対話モデル UltraLLaMA の作成に成功しました。 |
RUC | YuLan-Chat | 英語/中国語 | ラマ | 高品質の英語と中国語の指示を備えた微調整された LLaMA に基づいて開発されました。 |
AI2 | トゥル | jp | LLaMA/ピシア/OPT | データセットの強力な組み合わせに基づいて完全に微調整された一連の LLaMa モデル。 |
カイスト | セルフィー | jp | ラマ | 自己フィードバック生成によって強化された反復的自己改訂 LLM。 |
@リオガビン | アニマ | 英語/中国語 | ラマ | QLoRA の 33B グアナコに基づいてトレーニングされ、10000 歩向けに微調整されています。 |
木 | チャットGLM2-6B | 英語/中国語 | - | ChatGLM 2 -6B は、オープンソースのバイリンガル (中国語-英語) チャット モデル ChatGLM-6B の第 2 世代バージョンです。 第 1 世代モデルのスムーズな会話フローと導入の敷居が低いことはそのままに、次の新機能が導入されています。 - より強力なパフォーマンス - より長いコンテキスト - より効率的な推論 - よりオープンなライセンス |
オープンチャット | オープンチャット | jp | LLaMAなど | 一連のオープンソース言語モデルは、小規模ながら多様で高品質なマルチラウンド会話のデータセットに基づいて微調整されています。 具体的には、最大 90,000 の ShareGPT 会話から直接フィルタリングされた、最大 6,000 の GPT-4 会話のみを利用します。 データセットのサイズが小さいにもかかわらず、OpenLLM は顕著なパフォーマンスを実証しました。 |
CAS | ベイリン | マルチ | ラマ | BayLing は、高度な言語調整機能を備えた英語/中国語 LLM です。 英語/中国語の生成、指示への追従、および複数ターンの対話において優れた能力を示しています。 |
安定 | フリーウィリー/フリーウィリー2 | jp | ラマ/ラマ2 | FreeWilly 、Orca スタイルのデータセットに基づいて微調整された Llama65B モデルです。FreeWilly2 は、Orca スタイルのデータセットに基づいて微調整された Llama2 70B モデルです。FreeWilly2 、ハグフェイス オープン LLM リーダーボードで Llama2 70B を上回っています。 |
アリババ | クウェン-7B | 英語/中国語 | - | Alibaba Cloudが提案する大規模言語モデルシリーズQwen(略称Tongyi Qianwen)の7Bパラメータ版。 |
ジュウ | KnowLM | 英語/中国語 | ラマ | 深層学習テクノロジーの急速な発展に伴い、ChatGPT などの大規模言語モデルは、自然言語処理の分野で大幅な進歩を遂げました。 しかし、これらの拡張的なモデルは、知識や潜在的な知識を更新することの難しさなど、知識の取得と理解において依然としていくつかの課題に直面しています。 不一致と偏見、総称して知識の誤謬として知られています。 KnowLM プロジェクトは、オープンソースの大規模知識言語モデル フレームワークを立ち上げ、対応するモデルをリリースすることで、これらの問題に取り組むよう努めています。 |
NEU | TechGPT | 英語/中国語 | ラマ | TechGPTでは主に以下の3種類のタスクを強化します。 - 「ナレッジグラフ構築」を核とした関係トリプレット抽出などの様々な情報抽出タスク ・「読解」を中心とした知的な質疑応答の数々。 ・「文章理解」を核としたキーワード生成など、さまざまなシーケンス生成タスク。 |
@MiuLab | 台湾-LLaMa | 英語/中国語 | LLaMA2 | 台湾向けの繁体字中国語 LLM。 |
Xwin-LM | Xwin-LM | jp | LLaMA2 | Xwin-LM は、教師あり微調整 (SFT) を含む、大規模な言語モデル向けの調整テクノロジを開発し、オープンソースにすることを目的としています。 報酬モデル (RM)、リジェクト サンプリング、ヒューマン フィードバックからの強化学習 (RLHF) など。 AlpacaEval でTOP-1にランク付けされた Llama2 ベース モデル 注目すべきは、このベンチマークでGPT-4 を初めて上回ったことです。 |
ウェンジ研究 | ヤイ | 英語/中国語 | ラマ/ラマ2 | YaYi は、人工的に構築された何百万もの高品質ドメイン データに基づいて微調整されました。このトレーニング データは、次の 5 つの主要なドメインをカバーしています。 メディア宣伝、世論分析、公共の安全、金融リスク管理、都市ガバナンスなど、100 を超える自然言語指導タスクが含まれます。 |
ハグ顔 | ゼファー | jp | ミストラル | Zephyr は、役立つアシスタントとして機能するように訓練された一連の言語モデルです。Zephyr-7B-α は、シリーズの最初のモデルであり、微調整されたバージョンです。 misstralai/Mistral-7B-v0.1 は、Direct Preference Optimization (DPO) を使用して、公開されている合成データセットの組み合わせでトレーニングされました。 |
コヒア | コマンド+R / コマンドR+ | マルチ | - | Command-R は、10 言語で評価される多言語生成機能と、高パフォーマンスの RAG 機能を備えています。 |
ザイ | グロク | jp | - | 314B MoE; コンテキスト長: 8192 |
データブリック | dbrx-命令 | - | - | Mixtral のような他のオープン MoE モデルと比較して、合計 132B のパラメーターを備えたきめ細かな専門家混合 (MoE) アーキテクチャで、そのうち 36B のパラメーターはテキスト データとコード データの 12T トークンで事前トレーニングされています。 8x7B と Grok-1 では、DBRX はきめ細かく、多数の小規模な専門家を使用しますが、DBRX には 16 人の専門家がいて、4 人が選択されます。 Mixtral-8x7B と Grok-1 には 8 人の専門家がいて、2 人を選択します。 |
寄稿者 | モデル/メソッド | 主な機能 | 主な機能 |
---|---|---|---|
FuseAI | ヒューズチャット | まず、ソース LLM のペアワイズ知識融合を実行して、軽量微調整によって同一の構造とサイズの複数のターゲット LLM を導出します。次に、これらのターゲット LLM をパラメータ空間内でマージします。そこで、マージの重みを決定するための新しい方法 VaRM を提案します。微調整前後のパラメータ行列の変化率に基づきます。 | 多様なアーキテクチャとスケールを持つ 3 つの著名なチャット LLM、すなわち NH2-Mixtral-8x7B、NH2-Solar-10.7B、および OpenChat-3.5-7B の融合により、MT-Bench で平均パフォーマンス8.22を達成し、優れたパフォーマンスを発揮します。 Starling-7B などの 7B および 34B スケールのさまざまな強力なチャット LLM Yi-34B-Chat は GPT-3.5 (3 月)、Claude-2.1 を上回り、Mixtral-8x7B-Instruct に近づいています。 |
アーシーアイ | マージキット | 事前トレーニングされた大規模な言語モデルをマージするためのツール。 | |
さかなあい | evollm | モデルマージレシピの進化的最適化。 |
(たぶん後継者?)
寄稿者 | 方法 | 主な機能 |
---|---|---|
blinkdl | RWKV-LM | RWKVは、変圧器レベルのLLMパフォーマンスを備えたRNNです。 したがって、RNNとトランスのベストを組み合わせています。優れたパフォーマンス、高速推論、VRAM、高速トレーニング、「Infinite」CTX_LEN、および自由文の埋め込みを節約します。 |
ムスラ | retnet | 同時に、トレーニングの並列性、低コストの推論、および良好なパフォーマンスを達成します。 次に、シーケンスモデリングの保持メカニズムを提案します。これは、3つの計算パラダイム、すなわち並列、再発、および塊状の再発をサポートします。 具体的には、並列表現により、並列性をトレーニングすることができます。 パフォーマンスを犠牲にすることなく、レイテンシ、およびGPUメモリ。 各チャンクは並行してエンコードされ、言語モデリングの実験結果は、RetNetが好ましいスケーリング結果を達成することを示しています。 並列トレーニング、低コストの展開、および効率的な推論により、RetNetは大規模な言語モデルの強力な後継者になります。 |
スタンフォード | bapcpack | AbackPackは、強力な言語モデルを可能にしながら、解釈可能性 - コントロールの新しいツールを提供するトランスのドロップイン交換です。 バックパックは、単語の予測的な意味を非触覚的にコンポーネントに分解し、それらを加重合計で集計し、正確で予測可能な介入を可能にします。 |
スタンフォードなど | モナークミキサー(M2) | 基本的なアイデアは、変圧器の主要な要素を君主のマトリックスに置き換えることです。これは、FFTを一般化し、亜二次の構造化マトリックスのクラスであり、 ハードウェア効率が高く、モナークミキサーでは、モナークマトリックスから構築されたレイヤーを使用して、シーケンス全体に混合し(注意操作を置き換えます)、モデル寸法(密なMLPを置き換える)の両方を行います。 |
CMUなど。 | マンバ | MAMBAは、以前のサブクアドラティックモデルが変圧器に基づいており、効率的なハードウェア対応デザインを備えた言語モデルなどの情報密度の高いデータの有望なパフォーマンスを示す新しい状態空間モデルアーキテクチャです。 Flashattentionの精神での実装。 |
CointedComputer | Stripedhyena | Stripedhyenaは、短いコンテキスト評価と長いコンテキスト評価において、同様のサイズの最高のオープンソーストランスと競合する最初の代替モデルです。 Stripedhyenaは、従来のデコーダーのみの変圧器とは異なる、マルチヘッドのグループ化されたクエリの注意とゲートの畳み込み型インヒエナブロックで構成されるハイブリッドアーキテクチャです。 1.状態空間モデル(モーダルまたは標準形式)、または切り捨てられたフィルターとしての畳み込みの表現を介して、ハイエナでのコスタントメモリデコード。 2。低レイテンシ、より速いデコード、トランスよりも高いスループット。 3. Llama-2などの最適化された変圧器アーキテクチャと比較して、トレーニングと推論 - 最適なスケーリング法の改善。 4.最大32Kのシーケンスでトレーニングされているため、より長いプロンプトを処理できます。 |
マイクロソフト | BGPT | BGPTは、あらゆるタイプのデータの次のバイト予測を介して生成モデリングをサポートし、コンピューターで任意のタスク実行可能ファイルを実行でき、デジタル世界内のすべてのアクティビティをシミュレートする機能を示し、その可能性は計算リソースと想像力によってのみ制限されます。 |
ディープマインド | グリフィンジャックス | Jax + Thegriffinの亜麻の実装:公式コードではなく、効率的な言語モデルのためにゲートされた線形再発を局所的な注意と混合します(公式コードはまだリリースされていません)。 RG-LRU層は、新規ゲート線形再発層であり、その周りにMQAを置き換える新しい再発ブロックを設計します。再発ブロックと局所的な注意の混合でMLPを挿入するハイブリッドモデル Griffin-3Bは、Mamba-3Bを上回り、Griffin-7BとGriffin-14Bは、トレーニング中に見られるトークンのほぼ少ないトークンで訓練されているにもかかわらず、Llama-2と競争力があります。 |
AI21 | ジャンバ | Jambaは、最初の生産規模のMAMBAの実装です単一の80GB GPUで最大140Kトークン。 |
メタ | メガロドン | メガロドンは、メガのアーキテクチャを継承し(注目を集めた指数移動平均)、さらに複数の技術コンポーネントを導入して、複雑な指数移動平均(CEMA)、タイムステップ正規化層、正規化された注意メカニズム、2つの2つの標準化された注意メカニズムを含む能力と安定性を改善します。 -HOP残差構成LLAMA2との頭と頭の比較。 |
寄稿者 | モデル/プロジェクト | 主な機能 |
---|---|---|
ミストラライ | mixtral-8x7b | MixTral-8X7B大手言語モデル(LLM)は、テストしたほとんどのベンチマークで、Mistral-8X7BがLLAMA 2 70Bを上回る、専門家の前提条件のまばらな混合物です。 |
上海AIラボなど。 | llama-moe | LlamaとSlimpajamaに基づく小規模で手頃なMOEモデル。 |
nusなど。 | Openmoe | オープンソースの混合物の家族のファミリー(MOE)の大手言語モデル。 |
スノーフレーク | 北極 | Arcticは、ユニークな密集したハイブリッドトランスアーキテクチャを使用しています。これは、10Bの密な変圧器モデルと、合計480Bと17Bのアクティブパラメーターを使用して、残留128x3.66B MOE MLPを組み合わせています。 |
寄稿者 | プロジェクト | 言語 | ベースモデル | 主な機能 |
---|---|---|---|---|
Baihaiaien | idpchat | en/zh | llama-13b 安定した拡散 | 中国のマルチモーダルモデル、単一のGPU実行可能、展開しやすい、UIを提供します。 |
カウスト | Minigpt-4 | en/zh | ラマ | Minigpt-4は、Blip-2の冷凍視覚エンコーダーを、1つの投影層のみを使用して、Frozen LLM、Vicunaを整列させます。 また、GPT-4で実証されているものと同様の多くの新たな視覚言語機能をもたらします。 |
MSRなど | llava | jp | ラマ | GPT-4レベルの機能を備えた大規模な言語モデルとビジョンモデルの構築に向けて、視覚的な命令チューニングが提案されています。 |
nus/thu | VPGTRANS | jp | llama/opt/ flan-t5/blip-2 ... | LLMを介してVPGを転送して、GPU時間を大幅に低くします 10回以上削減でき、トレーニングデータは約10%に減らすことができます。 VL-LlamaとVL-Vicunaを含む2つの新しいVL-LLMがVPGTransを介してリリースされます。 VL-llamaは、 VPGTransを介してBLIP-2 OPT-6.7BをLlamaに転送することにより、マルチモーダルバージョンLlamaです。 VL-Vicunaは、Vicuna LLMに基づいたGPT-4のようなマルチモーダルチャットボットです。 |
CASなど。 | x-llm | en/zh | チャットGLM-6B | X-llmは、X2Lインターフェイスを使用して多数モダリティ(画像、スピーチ、ビデオ)を外国語に変換し、それらをフィードします マルチモーダルLLMを達成するための大規模な言語モデル(ChatGlm)で、印象的なマルチモーダルチャット機能を達成します。 |
NTU | カワウソ | jp | OpenFlamingo | OpenFlamingo(DeepMind'sFlamingoのオープンソースバージョン)に基づくマルチモーダルモデル、 Mimic-ITで訓練され、命令にフォローする能力とコンテキスト内学習の改善を紹介しました。 Futhermore、OpenFlamingoの実装を最適化し、必要なものを民主化します 1x A100 GPUから4x RTX-3090 GPUへのトレーニングリソース。 |
XMU | ラビン | jp | ラマ | ビジョン言語指導の調整、すなわちミックスオブモダリティ適応(MMA)のための斬新で手頃なソリューションを提案します。 特に、MMAはエンドツーエンドの最適化レジームであり、軽量アダプターを介して画像エンコーダーとLLMを接続します。 一方、MMAの新しいルーティングアルゴリズムも提案します。これは、モデルが推論パスを自動的にシフトするのに役立つ可能性があります。 単一およびマルチモーダルの指示用。 |
USTC | キッドペッカー | - | - | マルチモーダルの大手言語モデルの幻覚を修正する最初の作業。 |
hpcaitech | オープンソラ | - | - | Openai Soraに代わるオープンソース。 |
参照:Awesome-Multimodal-Large-Language-Models
寄稿者 | データ/プロジェクト | 言語 | 主な機能 |
---|---|---|---|
CointedComputer | Redpajama-data | jp | ラマトレーニングデータセットを再現するためのオープンソースレシピ。 |
@goldsmith | ウィキペディア | マルチ | ウィキペディアAPIのPythonicラッパー。 |
Alpaca-Cotデータ収集を参照してください
寄稿者 | データ | 言語 | 主な機能 |
---|---|---|---|
セールスフォース | DialogStudio | jp | DialogStudio:会話型AIの最も豊かで多様な統一データセットコレクションと命令対応モデルに向けて。 |
寄稿者 | 方法 | 主な機能 |
---|---|---|
UWなど | 自己インストラクション | モデル自身の世代を使用して、教育データの大規模なコレクションを作成します。 |
@liuhc0428 | 信頼できる自己導入 | chatgptを使用して、特定のテキストに基づいていくつかの質問と回答を生成します。 |
PKU | Evol-Instruct | 人間の代わりにLLMSを使用してオープンドメインを自動的に生産することにより、inwizardlmを提案した新しい方法 LLMSのパフォーマンスを改善するためのさまざまな難易度とスキルの範囲の指示。 |
カウストなど | キャメル | ロールプレイングという名前の新しいコミュニケーションエージェントフレームワークが提案されています。 人間の意図との一貫性を維持しながら、タスクの完了に向けて。 ロールプレイを使用して、特定のタスク/ドメインで会話データを生成できます。 |
@chatarena | チャタレナ | マルチエージェント言語ゲーム環境を提供し、自律LLMエージェントとその社会的相互作用に関する研究を促進するライブラリ。 マルコフの決定プロセスに基づいて、複数のプレーヤー、環境、およびそれらの間の相互作用を定義するための柔軟なフレームワークを提供します。 |
寄稿者 | 方法 | 主な機能 |
---|---|---|
- | 人間の評価 | - |
OpenAI | GPT-4/CHATGPT | - |
PKU/CMU/MSRA ... | パンダルム | 再現可能で自動化された言語モデルの評価。 |
UCB | チャットボットアリーナ | 2つの匿名モデルと並んでチャットし、1つが優れていることに投票してください。 次に、ELOレーティングシステムを使用して、モデルの相対的なパフォーマンスを計算します。 |
スタンフォード | アルパカエヴァル | GPT-4/Claude評価onalpacafarmデータセット。 |
clueai | supercluelyb | Clueaiが開発した中国語のchatbotアリーナ。 |
SJTUなど | auto-j | 異なるLLMを人間の好みに合わせる方法について効果的に評価できる新しいオープンソース生成裁判官。 |
CMU | codebertscore | Bertscoreに基づくコード生成の自動メトリック。 Bertscoreとして、CodebertscoreはCodebertなどのモデルからの事前に訓練されたコンテキスト埋め込みを活用し、Cosineの類似性によって候補者と参照文の単語を一致させます。 Bertscoreとは異なる方法で、Codebertscoreは生成されたコードとともに自然言語の入力またはその他のコンテキストもエンコードしますが、そのコンテキストを使用してCosineの類似性を計算しません。 |
国内の大規模なモデル評価の現在の状況
寄稿者 | ベンチマーク | 主な機能 |
---|---|---|
プリンストン | SWEベンチ | GitHubから収集された現実世界のソフトウェアの問題に関する大規模な言語モデルを評価するためのベンチマーク。 言語モデルには、説明されている問題を解決するパッチを生成することが課せられています。 |
マイクロソフト | AGIEval | 人間の認知と問題解決に関連するタスクで、基礎モデルの一般的な能力を評価するために特別に設計された人間中心のベンチマーク。 |
clueai | SuperClue-Agent | 中国のネイティブタスクに基づくエージェント評価ベンチマーク。 |
bytedance | gpt-fathom | GPT-Fathomは、オープンソースと再現性のあるLLM評価スイートであり、10+の主要なオープンソースおよびクローズドソースLLMS、およびAligned Settingsの下で20+キュレートされたベンチマークのOpenaiの以前のモデルです。 |
opencompass、huggingface
寄稿者 | プロジェクト | 主な機能 |
---|---|---|
CAS | アルパカCoT | COTデータをAlpacaに拡張して、推論能力を高めます。 広範な命令コレクション(特にCOTデータセット)を備えた命令Finetuning(IFT)プラットフォームの構築を目指しています さまざまな大規模な言語モデルの統一インターフェイス。 |
@hiyouga | chatglm効率の高い調整 | PEFTを使用した効率的な微調整chatglm-6b。 |
@hiyouga | ラマ効率の高い調整 | PEFT(PT+SFT+RLHFでQloraを使用した微調整llama)。 |
@jianzhnie | 効率的な調整llms | Qlora LLMSの効率的な微調整。 |
巨大AI | 巨大チャット | 完全なRLHFパイプラインを備えたCloningchatgptのオープンソースの低コストソリューション。 |
マイクロソフト | deepspeed-chat | すべてのスケールでのChatGPTのようなモデルの簡単で高速で手頃なRLHFトレーニング。 |
laion-ai | オープンアシスタント | プロジェクトは、素晴らしいチャットベースの大規模な言語モデルに誰もがアクセスできるようにすることを目的としています。 |
hkust | lmflow | 大規模な機械学習モデルを獲得するための拡張可能で便利で効率的なツールボックス、 使いやすく、スピーディで信頼性が高く、ACCになるように設計されています 拡大する
関連アプリ
おすすめ
|