EgoAlpha Lab による、コンテキスト内でのプロンプト学習のためのオープンソース エンジニアリング ガイド。
論文 | ⚡️遊び場 | ?迅速なエンジニアリング | ? ChatGPT プロンプト | ⛳ LLM 使用ガイド
️ Shining ️:これは、コンテキスト内の学習と迅速なエンジニアリングのための、毎日更新される新鮮なリソースです。汎用人工知能 (AGI) が近づいている今、このエキサイティングな時代の最前線に位置し、個人的にも職業的にも偉大になるよう努力するために、行動を起こして超学習者になりましょう。
リソースには次のものが含まれます。
?書類? :インコンテキスト学習、プロンプトエンジニアリング、エージェント、および基盤モデルに関する最新の論文。
?遊び場? : 迅速な実験を可能にする大規模な言語モデル(LLM)。
?迅速なエンジニアリング? : 大規模な言語モデルを活用するための迅速なテクニック。
?ChatGPT プロンプト? : 仕事や日常生活に応用できる即効性のある例。
?LLM 使用ガイド? : LangChain を使用して大規模な言語モデルをすばやく開始する方法。
将来、地球上には 2 つのタイプの人々が存在する可能性があります (おそらく火星にも存在しますが、それはマスク氏の質問です)。
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha は推論に焦点を当てた TrustGPT をリリースします。本物で信頼できる答えを得るために、最強の推論能力を備えた GPT を信頼してください。ここをクリックするか、プレイグラウンドに直接アクセスして体験してください。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
完全な歴史ニュース?
タイトルを直接クリックすると、対応する PDF リンクの場所にジャンプできます。
モーションとアテンションの融合: ビデオモーションプロンプト( 2024.07.03 )
個人の健康の大規模言語モデルに向けて( 2024.06.10 )
Husky: マルチステップ推論のための統合されたオープンソース言語エージェント( 2024.06.10 )
大規模言語モデルの生涯学習に向けて: 調査( 2024.06.10 )
マルチモーダルLLMにおけるトークン化の意味的等価性に向けて( 2024.06.07 )
LLM とマルチモーダルな生成および編集の出会い: 調査( 2024.05.29 )
大規模言語モデルを使用したツール学習: 調査( 2024.05.28 )
LLM が 3D 世界に足を踏み入れるとき: マルチモーダル大規模言語モデルによる 3D タスクの調査とメタ分析( 2024.05.16 )
LLM の不確実性の推定と定量化: シンプルな教師ありアプローチ( 2024.04.24 )
大規模言語モデルに基づくエージェントの記憶機構に関する調査( 2024.04.21 )
完全な論文リスト? 「調査」のためですか?
LLaRA: 視覚言語政策のためのロボット学習データのスーパーチャージ( 2024.06.28 )
LoRA 重みからのデータセット サイズの回復( 2024.06.27 )
二相高速即時最適化( 2024.06.19 )
RAG から豊富なパラメータまで: 言語モデルが事実クエリのパラメトリック情報に対する外部知識をどのように利用するかを調査する( 2024.06.18 )
VoCo-LLaMA: 大規模言語モデルによる視覚圧縮に向けて( 2024.06.18 )
LaMDA: スペクトル分解された低次元適応による大規模モデルの微調整( 2024.06.18 )
LoRA Finetuning Dynamics に対する初期化の影響( 2024.06.12 )
マルチモーダル大規模言語モデルのためのパラメータ効率の高い微調整に関する実証研究( 2024.06.07 )
グラフプロンプト学習に対するクロスコンテキストバックドア攻撃( 2024.05.28 )
元2.0-M32: 注目ルーターと専門家の混合( 2024.05.28 )
完全な論文リスト? 「即時デザイン」の場合は?
マルチモーダル大規模言語モデルのためのパラメータ効率の高い微調整に関する実証研究( 2024.06.07 )
カントール:MLLM の多峰性思考連鎖を刺激する( 2024.04.24 )
nicolay-r at SemEval-2024 タスク 3: 感情状態に関する思考連鎖との会話における感情の原因を推論するための Flan-T5 の使用( 2024.04.04 )
思考の視覚化が大規模言語モデルの空間的推論を引き出す( 2024.04.04 )
小さな言語モデルは大規模な言語モデルの推論を改善するのに役立ちますか?: LM に導かれた思考連鎖( 2024.04.04 )
Visual CoT: マルチモーダル言語モデルで思考連鎖推論を解き放つ( 2024.03.25 )
科学における学生の形成的評価反応を評価するための LLM による思考連鎖促進アプローチ( 2024.03.21 )
NavCoT: 解きほぐされた推論の学習による LLM ベースの視覚と言語のナビゲーションの強化( 2024.03.12 )
ERA-CoT: エンティティ関係分析による思考連鎖の改善( 2024.03.11 )
バイアス拡張一貫性トレーニングにより思考連鎖における偏った推論が軽減される( 2024.03.08 )
完全な論文リスト? 「思考の連鎖」のために?
LaMDA: スペクトル分解された低次元適応による大規模モデルの微調整( 2024.06.18 )
LoRA Finetuning Dynamics に対する初期化の影響( 2024.06.12 )
マルチモーダル大規模言語モデルのためのパラメータ効率の高い微調整に関する実証研究( 2024.06.07 )
マルチモーダル学習における拡張テキストコンテキストのビジュアルトークンの活用( 2024.06.04 )
Learning to grok: モジュラー算術タスクにおける文脈内学習とスキル構成の出現( 2024.06.04 )
長いコンテキストはまったく長くありません: 大規模言語モデルのための長い依存関係データの探求者( 2024.05.28 )
多空間投影と即時融合による効率的な即時チューニング( 2024.05.19 )
MAML-en-LLM: コンテキスト内学習を改善するための LLM のモデルに依存しないメタトレーニング( 2024.05.19 )
大規模言語モデルによる文脈内学習による常識生成の多様性の向上( 2024.04.25 )
インコンテキスト学習のためのより強力なランダムベースライン( 2024.04.19 )
完全な論文リスト? 「状況に応じた学習」のためですか?
アップロード可能な機械学習のための LoRA 専門家の検索拡張混合( 2024.06.24 )
RAG システムの強化: パフォーマンスとスケーラビリティのための最適化戦略に関する調査( 2024.06.04 )
Adaptive Adversarial Training による検索拡張言語モデルのノイズ耐性の強化( 2024.05.31 )
スパースコンテキスト選択による検索拡張生成の推論の高速化( 2024.05.25 )
DocReLM: 言語モデルを使った文書検索のマスタリング( 2024.05.19 )
UniRAG: マルチモーダル大規模言語モデルのためのユニバーサル検索拡張( 2024.05.16 )
ChatHuman: 検索拡張ツール推論による言語駆動型 3D 人間理解( 2024.05.07 )
理由: 公開および独自の LLM を使用した科学文の検索と自動引用のベンチマーク( 2024.05.03 )
重ね合わせプロンプト: 検索拡張生成の改善と加速( 2024.04.10 )
結び目を解く: 大規模言語モデルで矛盾する知識と推論スキルを織り交ぜる( 2024.04.04 )
完全な論文リスト? 「検索拡張生成」の場合は?
CELLO: 大規模視覚言語モデルの因果関係評価( 2024.06.27 )
プレックスミー!機械翻訳と要約評価のためのオープンソースLLMの大規模な早期探索( 2024.06.26 )
大規模マルチモーダルモデル時代の参照表現理解評価を再考する( 2024.06.24 )
OR-Bench: 大規模言語モデルの過剰拒否ベンチマーク( 2024.05.31 )
TimeChara: ロールプレイング大規模言語モデルのポイントインタイムキャラクター幻覚の評価( 2024.05.28 )
微妙なバイアスには微妙な対策が必要: 大規模言語モデルの代表バイアスと類似性バイアスを評価するためのデュアル メトリクス( 2024.05.23 )
HW-GPT-Bench: 言語モデルのハードウェア認識アーキテクチャ ベンチマーク( 2024.05.16 )
マルチモーダル LLM は基本的なビジュアル ネットワーク分析に苦戦: VNA ベンチマーク( 2024.05.10 )
Vibe-Eval: マルチモーダル言語モデルの進捗状況を測定するためのハード評価スイート( 2024.05.03 )
言語モデルの因果関係評価( 2024.05.01 )
完全な論文リスト? 「評価と信頼性」については?
UAV支援モバイルエッジコンピューティングネットワークのための協調型マルチエージェント深層強化学習法( 2024.07.03 )
象徴的な学習により自己進化するエージェントが実現( 2024.06.26 )
マルチモーダルエージェントに対する敵対的攻撃( 2024.06.18 )
DigiRL: 自律強化学習による野生型デバイス制御エージェントのトレーニング( 2024.06.14 )
大規模言語モデルエージェントを使用してウェアラブルデータを健康に関する洞察に変換する( 2024.06.10 )
ニューロモーフィック・ドリーミング: 人工エージェントにおける効率的な学習への経路( 2024.05.24 )
強化学習による意思決定エージェントとしての大規模視覚言語モデルの微調整( 2024.05.16 )
グラフモデリングの視点から学ぶマルチエージェントコミュニケーション( 2024.05.14 )
スマーフ: ツール計画のためのコンテキスト効率を備えた複数の熟練エージェントの活用( 2024.05.09 )
人間とWebエージェントのWebタスク処理における差異を明らかに( 2024.05.07 )
完全な論文リスト? 「エージェント」の場合は?
InternLM-XComposer-2.5: ロングコンテキスト入出力をサポートする汎用性の高いラージ ビジョン言語モデル( 2024.07.03 )
LLaRA: 視覚言語政策のためのロボット学習データのスーパーチャージ( 2024.06.28 )
Web2Code: マルチモーダル LLM のための大規模な Web ページからコードへのデータセットと評価フレームワーク( 2024.06.28 )
LLaVolta: 段階的なビジュアルコンテキスト圧縮による効率的なマルチモーダルモデル( 2024.06.28 )
Cambrian-1: マルチモーダル LLM の完全にオープンなビジョン中心の探査( 2024.06.24 )
VoCo-LLaMA: 大規模言語モデルによる視覚圧縮に向けて( 2024.06.18 )
LLaVA-HD を超えて: 高解像度の大規模マルチモーダル モデルに飛び込む( 2024.06.12 )
マルチモーダル大規模言語モデルのためのパラメータ効率の高い微調整に関する実証研究( 2024.06.07 )
マルチモーダル学習における拡張テキストコンテキストのビジュアルトークンの活用( 2024.06.04 )
DeCo: マルチモーダル大規模言語モデルにおけるセマンティック抽象化からトークン圧縮を分離する( 2024.05.31 )
完全な論文リスト? 「マルチモーダル プロンプト」の場合は?
IncogniText: LLM ベースのプライベート属性ランダム化によるプライバシー強化条件付きテキスト匿名化( 2024.07.03 )
Web2Code: マルチモーダル LLM のための大規模な Web ページからコードへのデータセットと評価フレームワーク( 2024.06.28 )
OMG-LLaVA: 画像レベル、オブジェクトレベル、ピクセルレベルの推論と理解の橋渡し( 2024.06.27 )
大規模言語モデルのための敵対的検索エンジンの最適化( 2024.06.26 )
VideoLLM-online: ストリーミングビデオ用のオンラインビデオ大規模言語モデル( 2024.06.17 )
隠れ状態の正規化により LLM の一般化可能な報酬モデルの学習が可能( 2024.06.14 )
自己回帰モデルが普及に勝つ: スケーラブルな画像生成のための Llama ( 2024.06.10 )
言語モデルは特定の認知プロファイルをエミュレートする: 予測可能性の尺度が個人差とどのように相互作用するかに関する調査( 2024.06.07 )
PaCE: 大規模言語モデルのための節約コンセプトエンジニアリング( 2024.06.06 )
元2.0-M32: 注目ルーターと専門家の混合( 2024.05.28 )
完全な論文リスト? 「即時申請」の場合は?
TheoremLalama: 汎用 LLM を Lean4 エキスパートに変換する( 2024.07.03 )
多視点学習による歩行者の3D形状理解による人物再識別( 2024.07.01 )
LLM における暗黙的語彙項目のフットプリントとしてのトークン消去( 2024.06.28 )
OMG-LLaVA: 画像レベル、オブジェクトレベル、ピクセルレベルの推論と理解の橋渡し( 2024.06.27 )
モデル編集の基本的な問題: LLM では合理的信念修正はどのように機能する必要がありますか? ( 2024.06.27 )
Context-Aware Tokenization による効率的な世界モデル( 2024.06.27 )
LLM の驚くべき堅牢性: 推論の段階? ( 2024.06.27 )
ResumeAtlas: 大規模データセットと大規模言語モデルによる履歴書の分類の再考( 2024.06.26 )
AITTI: テキストから画像への生成のための学習適応型包括的トークン( 2024.06.18 )
エンコーダフリーの視覚言語モデルを発表( 2024.06.17 )
完全な論文リスト? 「ファウンデーションモデル」の場合は?
大規模言語モデル (LLM) は、時代の発展を形作る革新的なテクノロジーになりつつあります。開発者は、LLM を構築することで、これまでは想像の中でしか不可能だったアプリケーションを作成できるようになります。ただし、これらの LLM の使用には特定の技術的な障壁が伴うことが多く、導入段階であっても最先端のテクノロジーに怯えることがあります。次のような質問はありませんか?
コンピューター サイエンスの専門家だけでなく、すべての対象者がアクセスできるチュートリアルがあれば、短時間ですぐに開始して操作できるようにするための詳細かつ包括的なガイダンスが提供され、最終的には LLM を柔軟に使用できるようになるという目標を達成できるでしょう。そして創造的に思い描いたプログラムを構築します。そして今、あなただけに: 最も詳細で包括的な Langchain 初心者向けガイド。公式 langchain Web サイトから出典されていますが、内容がさらに調整されており、最も詳細で注釈が付けられたコード例が付属しており、コードを行ごと、文ごとに学習し、観客全員。
ここをクリック? LLM を始めるための簡単なツアーをご覧ください。
このリポジトリは EgoAlpha Lab によって管理されています。質問や議論は[email protected]
まで受け付けています。
私たちは、学界や産業界の友人たちと積極的に議論し、迅速なエンジニアリングと状況に応じた学習の最新の発展を一緒に探っていきたいと思っています。
このリポジトリに参加してくれた EgoAlpha Lab の博士課程の学生と他の職員に感謝します。私たちはフォローアップ期間中にプロジェクトを改善し、このコミュニティを適切に維持していきます。また、関連リソースの作成者に心より感謝の意を表します。あなたの努力は私たちの視野を広げ、より素晴らしい世界を認識できるようにしました。