EgoAlpha Lab 提供的用于即时上下文学习的开源工程指南。
论文 | ⚡️游乐场| ?及时工程| ? ChatGPT提示|⛳LLM使用指南
️ Shining ️:这是用于上下文学习和即时工程的新鲜、每日更新的资源。随着通用人工智能(AGI)的到来,让我们行动起来,成为一名超级学习者,以便站在这个激动人心的时代的最前沿,努力实现个人和职业的伟大。
资源包括:
?文件? :关于情境学习、即时工程、代理和基础模型的最新论文。
?操场? :支持快速实验的大型语言模型(LLM)。
?及时工程? :利用大型语言模型的提示技术。
?ChatGPT 提示? :提示可以应用在我们的工作和日常生活中的例子。
?法学硕士使用指南? :使用LangChain快速入门大型语言模型的方法。
未来,地球上可能会有两种类型的人(甚至可能在火星上,但这是马斯克的问题):
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha 发布专注于推理的 TrustGPT。相信 GPT 具有最强的推理能力,可以提供真实可靠的答案。您可以点击此处或直接前往游乐场体验。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
完整的历史新闻?
您可以直接点击标题跳转到对应的PDF链接位置
运动遇见关注:视频运动提示( 2024.07.03 )
迈向个人健康大语言模型( 2024.06.10 )
Husky:用于多步推理的统一开源语言代理( 2024.06.10 )
走向大型语言模型的终身学习:一项调查( 2024.06.10 )
多模态法学硕士中标记化的语义等价( 2024.06.07 )
法学硕士遇见多模式生成和编辑:一项调查( 2024.05.29 )
大型语言模型的工具学习:调查( 2024.05.28 )
当法学硕士步入3D世界:基于多模态大语言模型的3D任务调查与元分析( 2024.05.16 )
法学硕士的不确定性估计和量化:一种简单的监督方法( 2024.04.24 )
基于大型语言模型的Agent记忆机制研究综述( 2024.04.21 )
完整的论文清单 ?为了“调查”?
LLaRA:为视觉语言策略增压机器人学习数据( 2024.06.28 )
从LoRA权重恢复数据集大小( 2024.06.27 )
双相加速即时优化( 2024.06.19 )
从RAG到丰富的参数:探讨语言模型如何利用参数信息上的外部知识进行事实查询( 2024.06.18 )
VoCo-LLaMA:利用大型语言模型实现视觉压缩( 2024.06.18 )
LaMDA:通过谱分解低维适应进行大模型微调( 2024.06.18 )
初始化对LoRA微调动态的影响( 2024.06.12 )
多模态大型语言模型参数高效微调的实证研究( 2024.06.07 )
针对图提示学习的跨上下文后门攻击( 2024.05.28 )
Yuan 2.0-M32:专家与注意力路由器的混合( 2024.05.28 )
完整的论文清单 ? “即时设计”?
多模态大型语言模型参数高效微调的实证研究( 2024.06.07 )
Cantor:启发MLLM的多式联运思想链( 2024.04.24 )
Nicolay-r 在 SemEval-2024 任务 3:使用 Flan-T5 在情绪状态思维链对话中推理情绪原因( 2024.04.04 )
思维可视化引发大型语言模型中的空间推理( 2024.04.04 )
小语言模型能帮助大语言模型更好地推理吗?:LM引导的思想链( 2024.04.04 )
Visual CoT:释放多模态语言模型的思维链推理( 2024.03.25 )
法学硕士评估学生科学形成性评估反应的思维链提示法( 2024.03.21 )
NavCoT:通过学习解缠推理促进基于 LLM 的视觉和语言导航( 2024.03.12 )
ERA-CoT:通过实体关系分析改善思维链( 2024.03.11 )
偏差增强一致性训练减少思维链中的偏差推理( 2024.03.08 )
完整的论文清单 ?为“思想链”?
LaMDA:通过谱分解低维适应进行大模型微调( 2024.06.18 )
初始化对LoRA微调动态的影响( 2024.06.12 )
多模态大型语言模型参数高效微调的实证研究( 2024.06.07 )
在多模态学习中利用视觉标记扩展文本上下文( 2024.06.04 )
学习神通:模块化算术任务中情境学习和技能组合的出现( 2024.06.04 )
长上下文一点也不长:大语言模型长依赖数据的探索者( 2024.05.28 )
多空间投影快速融合高效快速调音( 2024.05.19 )
MAML-en-LLM:用于改进情境学习的法学硕士模型不可知元训练( 2024.05.19 )
通过上下文学习提高大型语言模型常识生成的多样性( 2024.04.25 )
更强的情境学习随机基线( 2024.04.19 )
完整的论文清单 ? “情境学习”?
用于可上传机器学习的LoRA专家的检索增强混合( 2024.06.24 )
增强 RAG 系统:性能和可扩展性优化策略综述( 2024.06.04 )
通过自适应对抗训练增强检索增强语言模型的噪声鲁棒性( 2024.05.31 )
通过稀疏上下文选择加速检索增强生成的推理( 2024.05.25 )
DocReLM:用语言模型掌握文档检索( 2024.05.19 )
UniRAG:多模态大语言模型的通用检索增强( 2024.05.16 )
ChatHuman:语言驱动的 3D 人类理解与检索增强工具推理( 2024.05.07 )
理由:使用公共和专有法学硕士检索和自动引用科学句子的基准( 2024.05.03 )
叠加提示:改进和加速检索增强生成( 2024.04.10 )
解开结:大语言模型中相互冲突的知识和推理技能的交织( 2024.04.04 )
完整的论文清单 ? “检索增强一代”?
CELLO:大视觉语言模型的因果评估( 2024.06.27 )
请告诉我!机器翻译和摘要评估开源法学硕士的大规模快速探索( 2024.06.26 )
重温大型多模态模型时代的指代表达理解评估( 2024.06.24 )
OR-Bench:大型语言模型的过度拒绝基准( 2024.05.31 )
TimeChara:评估角色扮演大型语言模型的时间点角色幻觉( 2024.05.28 )
微妙的偏差需要更微妙的措施:评估大型语言模型中代表性偏差和亲和偏差的双重指标( 2024.05.23 )
HW-GPT-Bench:语言模型的硬件感知架构基准( 2024.05.16 )
多模式法学硕士努力解决基本的视觉网络分析:VNA 基准( 2024.05.10 )
Vibe-Eval:衡量多模态语言模型进度的硬评估套件( 2024.05.03 )
语言模型的因果评价( 2024.05.01 )
完整的论文清单 ?对于“评估和可靠性”?
无人机辅助移动边缘计算网络的多Agent协同深度强化学习方法( 2024.07.03 )
符号学习使智能体能够自我进化( 2024.06.26 )
多模式代理的对抗性攻击( 2024.06.18 )
DigiRL:通过自主强化学习训练野外设备控制代理( 2024.06.14 )
使用大型语言模型代理将可穿戴数据转化为健康洞察( 2024.06.10 )
神经形态梦:人工智能体高效学习的途径( 2024.05.24 )
通过强化学习微调大型视觉语言模型作为决策代理( 2024.05.16 )
从图建模角度学习多Agent通信( 2024.05.14 )
Smurfs:利用具有上下文效率的多个熟练代理进行工具规划( 2024.05.09 )
揭示人类和 Web Agent 之间 Web 任务处理的差异( 2024.05.07 )
完整的论文清单 ?对于“代理人”?
InternLM-XComposer-2.5:支持长上下文输入输出的通用大视觉语言模型( 2024.07.03 )
LLaRA:为视觉语言政策增压机器人学习数据( 2024.06.28 )
Web2Code:大规模网页到代码数据集和多模式法学硕士评估框架( 2024.06.28 )
LLaVolta:通过阶段式视觉上下文压缩实现高效的多模态模型( 2024.06.28 )
Cambrian-1:完全开放、以视觉为中心的多模态法学硕士探索( 2024.06.24 )
VoCo-LLaMA:利用大型语言模型实现视觉压缩( 2024.06.18 )
超越LLaVA-HD:深入研究高分辨率大型多模态模型( 2024.06.12 )
多模态大型语言模型参数高效微调的实证研究( 2024.06.07 )
在多模态学习中利用视觉标记扩展文本上下文( 2024.06.04 )
DeCo:多模态大语言模型中从语义抽象中解耦标记压缩( 2024.05.31 )
完整的论文清单 ?对于“多式联运提示”?
IncogniText:通过基于LLM的私有属性随机化增强隐私条件文本匿名化( 2024.07.03 )
Web2Code:大规模网页到代码数据集和多模式法学硕士评估框架( 2024.06.28 )
OMG-LLaVA:桥接图像级、对象级、像素级推理和理解( 2024.06.27 )
大型语言模型的对抗性搜索引擎优化( 2024.06.26 )
VideoLLM-online:流媒体视频的在线视频大语言模型( 2024.06.17 )
正则化隐藏状态使 LLM 能够学习可推广的奖励模型( 2024.06.14 )
自回归模型击败扩散:用于可扩展图像生成的 Llama ( 2024.06.10 )
语言模型模拟某些认知特征:可预测性测量如何与个体差异相互作用的调查( 2024.06.07 )
PaCE:大型语言模型的简约概念工程( 2024.06.06 )
Yuan 2.0-M32:专家与注意力路由器的混合( 2024.05.28 )
完整的论文清单 ? “立即申请”?
TheoremLama:将通用型法学硕士转变为精益4专家( 2024.07.03 )
通过多视图学习进行行人 3D 形状理解以实现行人重新识别( 2024.07.01 )
法学硕士中隐式词汇项的标记擦除( 2024.06.28 )
OMG-LLaVA:桥接图像级、对象级、像素级推理和理解( 2024.06.27 )
模型编辑的基本问题:理性信念修正在法学硕士中应该如何运作? ( 2024.06.27 )
具有上下文感知标记化的高效世界模型( 2024.06.27 )
法学硕士的卓越稳健性:推理阶段? ( 2024.06.27 )
ResumeAtlas:利用大规模数据集和大型语言模型重新审视简历分类( 2024.06.26 )
AITTI:学习文本到图像生成的自适应包容性令牌( 2024.06.18 )
推出无编码器视觉语言模型( 2024.06.17 )
完整的论文清单 ?对于“基础模型”?
大语言模型(LLM)正在成为一项革命性的技术,正在塑造我们时代的发展。开发人员可以通过构建法学硕士来创建以前只能在我们想象中实现的应用程序。然而,使用这些LLM往往会带来一定的技术障碍,即使在入门阶段,人们也可能会被尖端技术吓倒:您是否有类似以下的问题?
如果有一个教程,是所有受众,而不仅仅是计算机科学专业人士都可以接触到的,那么它将提供详细而全面的指导,在短时间内快速入门和操作,最终达到能够灵活使用LLM的目标并创造性地构建他们设想的项目。现在,为您奉上:最详细、最全面的 Langchain 初学者指南,源自 langchain 官方网站,内容进一步调整,并附有最详细、带注释的代码示例,逐行逐句教授代码所有观众。
点击这里?快速浏览 LLM 入门。
该存储库由 EgoAlpha Lab 维护。欢迎通过[email protected]
提出问题和讨论。
我们愿意与学术界和工业界的朋友们共同探讨,共同探讨即时工程和情境学习的最新进展。
感谢 EgoAlpha Lab 的博士生以及参与本次 repo 的其他工作人员。后续我们会完善这个项目,维护好这个社区。我们还要向相关资源的作者表示诚挚的谢意。你们的努力拓宽了我们的视野,让我们感知到了更美好的世界。