来自Egoalpha实验室的及时文化学习的开源工程指南。
论文| ⚡️游乐场| ?及时工程| ? chatgpt提示| | | llms使用指南
测试smind资源:这是新鲜的,每天更新的资源,用于内在学习和及时的工程。随着人工通用情报(AGI)的临近,让我们采取行动并成为超级学习者,以将自己定位在这个令人兴奋的时代的最前沿,并努力寻求个人和专业的伟大。
资源包括:
?文件? :有关秘密学习,及时工程,代理和基础模型的最新论文。
?操场? :大型语言模型(llms),可以迅速实验。
及时工程? :利用大型语言模型的及时技术。
chatgpt提示? :及时可以应用于我们的工作和日常生活中的例子。
LLMS使用指南? :使用Langchain快速开始使用大型语言模型的方法。
将来,地球上可能会有两种类型的人(甚至在火星上,但这是马斯克的一个问题):
?EgoAlpha: Hello! human?, are you ready?
Egoalpha释放Trustgpt专注于推理。信任GPT具有最强和可靠答案的最强推理能力。您可以单击此处或直接访问操场以体验。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
完整的历史新闻?
您可以直接单击标题跳到相应的PDF链接位置
运动引起注意:视频运动提示( 2024.07.03 )
迈向个人健康大语言模型( 2024.06.10 )
沙哑:多步推理的统一的开源语言代理( 2024.06.10 )
终身学习大型语言模型:调查( 2024.06.10 )
迈向多模式LLM中令牌化的语义等效性( 2024.06.07 )
LLM符合多模式生成和编辑:调查( 2024.05.29 )
使用大语言模型的工具学习:调查( 2024.05.28 )
当LLMS进入3D世界时:通过多模式大语言模型( 2024.05.16 )对3D任务进行调查和荟萃分析
LLMS的不确定性估计和量化:一种简单的监督方法( 2024.04.24 )
基于大语言模型的代理的记忆机制的调查( 2024.04.21 )
完整的纸张清单?用于“调查”?
llara:视觉策略的增压机器人学习数据( 2024.06.28 )
数据集尺寸从洛拉(Lora)举重( 2024.06.27 )
双相加速及时优化( 2024.06.19 )
从抹布到丰富的参数:探索语言模型如何利用外部知识而不是参数信息进行事实查询( 2024.06.18 )
VOCO-LALAMA:使用大语言模型的视觉压缩( 2024.06.18 )
LAMDA:大型模型通过频谱分解的低维度适应( 2024.06.18 )
初始化对Lora Finetuning Dynamics的影响( 2024.06.12 )
多模式大型语言模型参数有效微调的实证研究( 2024.06.07 )
跨境后面的后门攻击针对图表提示( 2024.05.28 )
Yuan 2.0-m32:专家与注意路由器的混合物( 2024.05.28 )
完整的纸张清单?对于“及时设计”?
多模式大型语言模型参数有效微调的实证研究( 2024.06.07 )
Cantor:启发性的MLLM的多模式链( 2024.04.24 )
Nicolay-R在Semeval-2024任务3:使用Flan-T5在情感状态的对话中使用Flan-T5进行推理情感原因( 2024.04.04 )
大语模型中的思想化引起的空间推理( 2024.04.04 )
小语言模型可以更好地帮助大语模型吗?
视觉婴儿床:多模式模型中释放经过思考的推理( 2024.03.25 )
通过LLMS的一系列促进链条方法,用于评估学生在科学中的形成性评估回答( 2024.03.21 )
NAVCOT:通过学习解开推理来提高基于LLM的视力和语言导航( 2024.03.12 )
ERA-COT:通过实体关系分析改善思想链( 2024.03.11 )
偏见的一致性训练减少了三( 2024.03.08 )的偏见推理
完整的纸张清单?对于“思想链”?
LAMDA:大型模型通过频谱分解的低维度适应( 2024.06.18 )
初始化对Lora Finetuning Dynamics的影响( 2024.06.12 )
多模式大型语言模型参数有效微调的实证研究( 2024.06.07 )
利用视觉令牌用于多模式学习中的扩展文本上下文( 2024.06.04 )
学习grok:模块化算术任务中的内在学习和技能组成的出现( 2024.06.04 )
长篇小说根本不长:大语言模型的长依赖性数据的探矿者( 2024.05.28 )
通过多空间投影和及时融合( 2024.05.19 )进行有效的及时调整
MAML-EN-LLM:LLMS的模型不可替代的元素培训,以改善封闭式学习( 2024.05.19 )
通过大型语言模型改善常识性生成的多样性,通过文化学习( 2024.04.25 )
更强的随机基准(用于内在的学习( 2024.04.19 )
完整的纸张清单?对于“封闭式学习”?
洛拉专家的检索效果混合物用于上传机器学习( 2024.06.24 )
增强抹布系统:性能和可伸缩性的优化策略调查( 2024.06.04 )
通过自适应对抗训练( 2024.05.31 ,提高检索型语言模型的噪音稳健性
加速通过稀疏上下文选择检索仪的生成( 2024.05.25 )
Docrelm:使用语言模型掌握文档检索( 2024.05.19 )
Unirag:多模式大语言模型的通用检索量( 2024.05.16 )
Chathuman:语言驱动的3D人类理解,带有检索功能的工具推理( 2024.05.07 )
原因:使用公共和专有LLM( 2024.05.03 )检索和自动引用科学句子的基准
叠加提示:改进和加速检索效果( 2024.04.10 )
打开结:大语言模型中的相互矛盾的知识和推理技能( 2024.04.04 )
完整的纸张清单?对于“检索增强一代”?
大提琴:大视觉语言模型的因果评估( 2024.06.27 )
prexme!大规模及时探索用于机器翻译和汇总评估的开源LLM ( 2024.06.26 )
重新访问大型多模型时代的参考表达理解评估( 2024.06.24 )
OR-BENCH:大语言模型的超级基准测试( 2024.05.31 )
Timechara:评估角色扮演大语言模型的时间点角色幻觉( 2024.05.28 )
微妙的偏见需要微妙的措施:用于评估大语言模型中代表性和亲和力偏见的双重指标( 2024.05.23 )
HW-GPT基础:语言模型的硬件感知体系结构基准( 2024.05.16 )
多模式LLM与基本视觉网络分析斗争:VNA基准( 2024.05.10 )
Vibe-eval:用于衡量多模式模型进度的硬评估套件( 2024.05.03 )
语言模型的因果评估( 2024.05.01 )
完整的纸张清单?用于“评估和可靠性”?
无人机移动边缘计算网络的合作多代理深钢筋学习方法( 2024.07.03 )
符号学习启用自我发展的代理( 2024.06.26 )
对多模式代理的对抗性攻击( 2024.06.18 )
Digirl:用自主加固学习培训野外设备控制代理( 2024.06.14 )
使用大语言模型代理将可穿戴的数据转换为健康见解( 2024.06.10 )
神经形态梦:人造代理中有效学习的途径( 2024.05.24 )
通过增强学习( 2024.05.16 ,微调大型视觉模型作为决策代理
从图形建模的角度学习多代理通信( 2024.05.14 )
蓝精灵:利用具有上下文效率工具计划的多种能力剂( 2024.05.09 )
在人与Web代理之间揭示Web任务处理中的差异( 2024.05.07 )
完整的纸张清单?对于“代理人”?
InternLM-XCOMPOSER-2.5:一种多功能的大视觉语言模型,支持长篇文化输入和输出( 2024.07.03 )
llara:视觉策略的增压机器人学习数据( 2024.06.28 )
Web2Code:多模式LLMS( 2024.06.28 )的大规模网页对代码数据集和评估框架
Llavolta:通过阶段视觉上下文压缩的有效多模式模型( 2024.06.28 )
Cambrian-1:多模式LLM的完全开放的,以视觉为中心的探索( 2024.06.24 )
VOCO-LALAMA:使用大语言模型的视觉压缩( 2024.06.18 )
超越LLAVA-HD:潜入高分辨率大型多模型( 2024.06.12 )
多模式大型语言模型参数有效微调的实证研究( 2024.06.07 )
利用视觉令牌用于多模式学习中的扩展文本上下文( 2024.06.04 )
装饰:多模式模型中的语义抽象的脱钩令牌压缩( 2024.05.31 )
完整的纸张清单?对于“多模式提示”?
Incognitext:通过基于LLM的私人属性随机化wantyrigation ( 2024.07.03 )
Web2Code:多模式LLMS( 2024.06.28 )的大规模网页对代码数据集和评估框架
OMG-llava:桥接图像级,对象级,像素级推理和理解( 2024.06.27 )
大语言模型的对抗搜索引擎优化( 2024.06.26 )
Videollm-Online:在线视频流媒体视频的大型语言模型( 2024.06.17 )
正规化隐藏状态使学习LLMS的可通用奖励模型( 2024.06.14 )
自回归模型击败扩散:可扩展图像生成的美洲驼( 2024.06.10 )
语言模型效仿某些认知概况:对可预测性测量如何与个体差异相互作用的研究( 2024.06.07 )
速度:大语言模型的简约概念工程( 2024.06.06 )
Yuan 2.0-m32:专家与注意路由器的混合物( 2024.05.28 )
完整的纸张清单?对于“及时申请”?
理论:将通用LLMS转换为Lean4专家( 2024.07.03 )
人行人3D形状理解人员通过多视图学习重新识别( 2024.07.01 )
令牌擦除是LLMS中隐性词汇项目的足迹( 2024.06.28 )
OMG-llava:桥接图像级,对象级,像素级推理和理解( 2024.06.27 )
模型编辑的基本问题:理性信念修订应如何在LLM中起作用? ( 2024.06.27 )
具有上下文感知令牌化的有效世界模型( 2024.06.27 )
LLMS的显着鲁棒性:推理阶段? ( 2024.06.27 )
RESUMUMEATLAS:使用大型数据集和大型语言模型重新访问简历分类( 2024.06.26 )
Aitti:学习自适应包含在文本到图像的代币( 2024.06.18 )
揭开无编码器视觉语言模型( 2024.06.17 )
完整的纸张清单?对于“基础模型”?
大型语言模型(LLM)正在成为一种革命性的技术,正在塑造我们时代的发展。开发人员可以通过构建LLM来创建以前在我们的想象中进行的应用程序。但是,使用这些LLM通常会带有某些技术障碍,即使在入门阶段,人们可能会被尖端的技术吓倒:您是否有类似的问题?
如果有一个听众可以访问的教程,而不仅仅是计算机科学专业人员,它将提供详细且全面的指导,以快速启动并在短时间内开始运作,最终实现了能够灵活地使用LLMS的目标并创造性地构建他们设想的程序。现在,仅适合您:最详细,最全面的Langchain初学者指南,来自官方Langchain网站,但对内容进行了进一步调整,并伴随着最详细和注释的代码示例,逐行教代码和句子教代码到所有受众。
点击这里?快速参观LLM的入门。
此存储库由Egoalpha实验室维护。欢迎通过[email protected]
进行问题和讨论。
我们愿意与学术和工业社区的朋友进行讨论,并共同探索及时的工程和文化学习中的最新发展。
多亏了来自Egoalpha实验室的博士生和其他参与此仓库的工人。我们将在后续期间改进项目,并保持良好的社区。我们还要对相关资源的作者表示衷心的感谢。您的努力扩大了我们的视野,使我们能够感知一个更美好的世界。