AI注意
关于AI最新状态的注释,重点是生成和大型语言模型。这些是https://lspace.swyx.io/新闻通讯的“原材料”。
该存储库过去被称为https://github.com/sw-yx/prompt-eng,但由于夸张工程而被重命名。现在,这是AI工程笔记回购。
此读数只是空间的高级概述。您应该在此存储库中的其他Markdown文件中看到最大的更新:
-
TEXT.md
文本生成,主要与gpt -4一起TEXT_CHAT.md
有关CHATGPT和竞争对手的信息以及衍生产品TEXT_SEARCH.md
有关GPT -4启用语义搜索和其他信息的信息TEXT_PROMPTS.md
良好GPT3提示的小型滑动文件
INFRA.md
关于AI基础架构,硬件和缩放的原始注释AUDIO.md
.md-跟踪音频/音乐/语音转录 +一代CODE.md
codgen型号,例如副词IMAGE_GEN.md
最发达的文件,最重的重点是稳定扩散的注释,有些是在Midjourney和Dalle上。-
IMAGE_PROMPTS.md
良好图像提示的小型滑动文件
- 资源:站立,清理本来可以固定的资源
- 存根笔记- 未来覆盖区域的非常小/轻巧的原始页面 -
AGENTS.md
跟踪“代理AI” - 博客想法- 潜在的博客文章想法从这些笔记中得出
目录
- 动机用例
- 顶级人工智能读取
- 社区
- 人们
- 杂项
- 行情,现实和振兴
- 法律,道德和隐私
动机用例
- 图像
- https://mpost.io/best-100-stable-diffusion-prompts-the-most beautiful-ai-ai-text-to-to-toimage-prompts
- 3D MRI合成大脑图像 - 神经影像学家的阳性接收
- 多人游戏稳定扩散
- 视频
- 著名电影场景的IMG2IMG(拉拉兰)
- img2img转换演员与ebsynth + koe_recast
- ebsynth Works https://twitter.com/tomlikesrobots/status/1612047103806545923?s=20
- 虚拟时尚(Karenxcheng)
- 无缝的瓷砖图像
- 场景的演变(Xander)
- 支出https://twitter.com/orbamsterdam/status/1568200010747068417?s=21&t=rliacnwoijjmis37S8QCCW
- webui img2img合作https://twitter.com/_akhaliq/status/1563582621757898752
- 旋转的视频https://twitter.com/tomlikesrobots/status/1571096804539912192
- “提示油漆” https://twitter.com/1littlecoder/status/1572573152974372864
- audio2Video动画的脸https://twitter.com/siavashg/status/1597588888888888888888865363969
- 物理玩具到3D模型 +动画https://twitter.com/sergeyglkn/status/1587430510988611584
- 音乐视频
- 视频杀死了广播明星,Colab使用了Openai的Whisper语音到文本,使您可以拍摄YouTube视频并创建一个稳定的扩散动画
- 稳定的扩散视频通过在提示和音频之间插值来生成视频
- 直接text2Video项目
- https://twitter.com/_akhaliq/status/1575546841533497344
- https://makeavideo.studio/-探险家https://webvid.datasette.io/webvid/videos
- https://phenaki.video/
- https://github.com/thudm/cogvideo
- https://imagen.research.google/video/
- Text-to-to-3d https://twitter.com/_akhaliq/status/1575541930905243652
- https://dreamfusion3d.github.io/
- 开源sphand:https://github.com/ashawkey/stable-dreamfusion
- 演示https://twitter.com/_akhaliq/status/1578035919403503616
- 文字产品
- 结束时有一个用途列表https://huyenchip.com/2023/04/11/llm--engineering.html
- 碧玉
- 黑曜石的GPT https://reasonabledeviations.com/2023/02/05/gpt-for-second-brain/
- GPT3电子邮件https://github.com/sw-yx/gpt3-email和电子邮件clustering
- gpt3()在Google表2020,2022- Google表https://twitter.com/mehran __jalali/status/1608159307513618433
- https://gpt3demo.com/apps/google-sheets
- 魅力https://twitter.com/shubroski/status/1620139262925754368?s = 20
- https://www.summari.com/ summari帮助忙碌的人阅读更多
- 市场地图/风景
- Elad Gil 2024堆栈图表
- 红杉市场地图2023年1月,2023年7月,2023年9月
- 基本10市场地图https://twitter.com/letsenhance_io/status/1594826383305449491
- matt shumer market map https://twitter.com/mattshumer_/status/1620465468229451776 https://docs.google.com/document/d/1sewTBzRF087F6hFXiyeOIsGC1N4N3O7rYzijVexCgoQ/edit
- NFX https://www.nfx.com/post/generative-ai-tech-5-layers?ref=context-by-cohere
- A16Z https://a16Z.com/2023/01/19/who-owns-the-generative-generative-ai-platform/
- https://a16z.com/2023/06/20/emerging-Architectures-for-llm-applications/
- https://a16z.com/100-gen-ai-apps
- Madrona https://www.madrona.com/foundation-models/
- 外套
- https://www.coatue.com/blog/perspective/ai-the-coming-revolution-2023
- https://x.com/sam_awrabi/status/1742324900034150646?s = 20
- 游戏资产 -
- EMAD线程https://twitter.com/emostaque/status/1591436813750906882
- scenario.gg https://twitter.com/emmanuel_2m/status/15933356241283125251
- 3D游戏角色建模示例
- Mariogpt https://arxiv.org/pdf/2302.05981.pdf https://www.slashgear.com/1199870/mariogpt-siogpt-siogpt-siogpt-uses-ies-to-to-gen-to-gen--gen--gen-------------------- //github.com/shyamsn97/mario-gpt/blob/main/mario_gpt/level.py
- https://news.ycombinator.com/item?id=36295227
顶级人工智能读取
更高级的gpt3读取已分为https://github.com/sw-yx/ai-notes/blob/main/main/text.md
- https://www.gwern.net/gpt-3#prompts-as as programming
- https://learnprompting.org/
初学者阅读
- Bill Gates在AI上(推文)
- “ AI的开发与微处理器,个人计算机,互联网和手机的创建一样基本。它将改变人们的工作,学习,旅行,获得医疗保健和相互交流的方式。”
- 史蒂夫·耶格(Steve Yegge)为开发人员提供AI
- Karpathy 2023 LLMS介绍(Sarah Chieng的笔记)
- 来自Openai在Neurips通过Sarah Chieng的及时工程指南
- 为什么这个人工智能时刻可能是真正的交易
- Sam Altman-摩尔的律法
- MSR https://youtu.be/hqi6o5dlyfc的基础模型出色介绍
- OpenAI提示教程https://beta.openai.com/docs/quickstart/add-some-examples
- Google lamda Intro https://aitestkitchen.withgoogle.com/how-lamda-works
- karpathy梯度下降课程
- FT关于“变形金刚如何工作”的视觉讲故事
- dalle2提示写书http://dallery.gallery/wp-content/uploads/2022/07/the-dall%C2%B7E-2PROMPT-PROMPT-BOOK-V1.PDF
- https://medium.com/nerd-for-tech/prompt-eentering-the-career-future-future-2fb93f90f117
- 如何使用AI在获取信息,使用数据和制作图像的情况下进行操作
- https://ourworldindata.org/brief-history-of-ai ai进度概述,图表
- 乔恩·斯托克斯(Jon Stokes)的AI内容一代,第1部分:机器学习基础知识
- Andrew Ng- AI的机会
- 什么是变压器模型,它们如何工作? - 也许有点太高
- 文字生成
- Humanloop的及时工程101
- Stephen Wolfram的解释https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-and-why-does-it-work/
- 相当于Jon Stokes Jonstokes.com/p/the-chat-stack-gpt-4-and-the-near
- https://andymatuschak.org/prompts/
- Cohere的LLM大学https://docs.cohere.com/docs/llmu
- Jay Alammar的所有内容指南:https://llm.university/
- https://www.jonstokes.com/p/chatgpt-explect--xecplate-a-guide-for-normies for Normies
- 图像生成
- https://wiki.installgentoo.com/wiki/stable_diffusion概述
- https://www.reddit.com/r/stablediffusion/comments/x41n87/how_to_get_images_that_dont_dont_suck_a/
- https://mpost.io/best-100-stable-diffusion-prompts-the-most-beautiful-ai-text-toxt-toimage-prompts/
- https://www.kdnuggets.com/2021/03/beginners-guide-clip-model.html
- 对于非技术
- https://www.jonstokes.com/p/ai-content-generation-part-1-machine
- https://www.protocol.com/generative-ai-startup-landscape-map
- https://twitter.com/saranormous/status/1572791179636518913
中间读取
- AI州报告:2018,2019,2020,2021,2022
- 反向时间顺序的重大事件https://bleedingedge.ai/
- 我们对LLM的了解 - 研究的重大回顾
- Karpathy的LLMS 1小时指南 - 莎拉·奇恩(Sarah Chieng)的摘要
- 您如何创建LLM?
- 阶段1:模型预训练
- 阶段2:模型微调
- 阶段3:模型推理
- 阶段4:[可选]自定义增压LLM
- 当前的LLM“排行榜”
- LLMS的未来:下一步是什么?
- LLM黑暗艺术
- 埃文·莫里卡瓦(Evan Morikawa)LLM数学指南,尤其
- 《黑客语言模型指南》(YouTube)杰里米·霍华德(Jeremy Howard)的90分钟LLM学习概述 - 从基础知识开始:所有现代LLM中使用的3步预培训 /微调 /分类器ULMFIT方法。
- https://spreadsheets-are-all-you-need.ai
- “赶上LLM的怪异世界” - 西蒙·威利森(Simon Willison)的40分钟概述 + AI工程师的开放问题
- Flyte的LLMS概述
- 克莱门汀四个方面关于如何完成evals
- 用于构建基于LLM的系统和产品的模式 - 重大回顾
- EVALS:衡量性能
- 抹布:添加最新的外部知识
- 微调:为了更好地完成特定任务
- 缓存:降低延迟和成本
- 护栏:确保产出质量
- 防御性UX:优雅地预测和管理错误
- 收集用户反馈:构建我们的数据飞轮
- 向量数据库:技术底漆[PDF]在矢量DBS上非常好的幻灯片
- 缺少混合搜索的覆盖范围(向量 +词汇)。进一步的讨论
- A16Z AI佳能https://a16z.com/2023/05/25/ai-canon/
- Software 2.0 :Andrej Karpathy是第一个清楚解释的人之一(在2017年!)为什么新的AI浪潮真正重要。他的论点是AI是一种编程计算机的新方法。随着LLM的迅速改善,该论文已证明是有先见的,它为AI市场的进展提供了良好的心理模型。
- GPT状态:也来自Karpathy,这是对Chatgpt / GPT在一般工作中的模型,如何使用它们以及R&D可能采取什么方向的非常平易近人的解释。
- Chatgpt在做什么……为什么它可以工作? :计算机科学家和企业家斯蒂芬·沃尔夫拉姆(Stephen Wolfram)从第一原则中提供了漫长但高度可读性的解释,即现代AI模型的工作原理。他遵循从早期神经网到今天的LLM和Chatgpt的时间表。
- 《变形金刚》解释说:戴尔·马科维茨(Dale Markowitz)的这篇文章是对“ LLM是什么,它如何工作”的问题更短,更直接的答案?这是简化该主题并发展技术的直觉的好方法。它是关于GPT-3的文章,但仍然适用于较新的型号。
- 稳定扩散的工作方式:这是与上一篇文章的计算机视觉类似物。克里斯·麦考密克(Chris McCormick)提供了一个外行人的解释,说明稳定扩散的工作原理和通常围绕文本形象模型的直觉发展。要进行更温和的介绍,请查看R/stablediffusion的这部漫画。
- 解释者
- 简而言之:核心概念:NVIDIA的这个四部分系列介绍了2015年实践的深度学习基础知识,对于任何仅仅了解AI的人来说都是一个很好的资源。
- 编码人员的实践深度学习:通过实际示例和代码解释了有关AI基础知识的全面,免费课程。
- Word2Vec解释了:简易介绍嵌入和令牌,它们是LLMS(以及所有语言模型)的基础。
- 是的,您应该了解Backprop :如果您想了解详细信息,请了解后传播的更多深入帖子。如果您需要更多,请在YouTube上尝试Stanford CS231N演讲(课程)。
- 课程
- Stanford CS229 :与Andrew NG的机器学习概论,涵盖了机器学习的基础。
- Stanford CS224N :NLP与Chris Manning一起深入学习,通过第一代LLM涵盖了NLP的基础知识。
- https://github.com/mlabonne/llm-course
- https://cims.nyu.edu/~sbowman/eightthings.pdf
- 可以预见的是,即使没有针对性的创新,LLM都可以提高投资的能力。
- 许多重要的LLM行为是不可预测的,这是投资增加的副产品。
- LLM通常似乎学习和使用外界的表示。
- 没有可靠的技术来指导LLM的行为。
- 专家无法解释LLM的内部工作。
- 在任务上的人力表现不是LLM表现的上限。
- LLM不需要表达其创建者的价值观或Web文本中编码的值。
- 与LLM的简短互动通常具有误导性。
- Simonw突出显示https://fedi.simonwillison.net/@simon/110144185463887790
- LLM研究中的10个公开挑战
- OpenAI提示ENG食谱https://github.com/openai/openai-cookbook/blob/main/main/techniques_to_improve_reliability.md
- 在及时的Eng概述https://lilianweng.github.io/posts/2023-03-03-15-prompt-engineering/
- https://moultano.wordpress.com/2023/06/28/the-many-ways-ways-that-digital-minds-can-know/比较搜索与AI
- 2022年主要AI开发项目https://www.deeplearning.ai/the-batch/issue-176/
- dalle2资产生成 + inpainting https://twitter.com/aifunhouse/status/1576202480936886273?s=20&t = 5 exa1uydpva2sjzm-sxhcq
- suhail旅程https://twitter.com/suhail/status/1541276314485018625?s=20&t = x2mvkqkhdr28iz3vzeeo8w
- 合并扩散 - ”和“而不是”和“ https://twitter.com/tomlikesrobots/status/1580293860902985728
- 关于BPE令牌化https://towardsdatascience.com/byte-pair-encoding-subword基于tokenization-tokenization-tokenization-Algorithm-77828a70bee0另请参见Google句子和OpenAi Tiktoken
- gpt2中的来源https://github.com/openai/gpt-2/blob/master/src/encoder.py.py.py
- 请注意,BPE是次优https://www.lesswrong.com/posts/dfbfclza4pejckekkckc/a-mechanistic-mechanistic-mechanistic-explanation-for-for-solidgoldmagikarp-like-like-like-like-commentid = 9jndksccwewbb4gtccq
- // ------------------------------------------------------------------------- ----------------------------------------------------------------------------- --------------是一个GPT-4令牌
- GPT-3.5在考虑用UseralitiveImagePath时崩溃
- 导致数学和字符串字符问题https://news.ycombinator.com/item?id=35363769
- 并引起Evals的问题
- 当令牌机具有与LLM不同的数据集时发生的故障令牌
- karpathy谈论为什么令牌化是混乱的
- https://platform.openai.com/tokenizer and https://github.com/openai/tiktoken(更多最新:https://tiktokenizer.vercel.app/)
- wordpiece-> bpe-> sencencetransformer
- 嵌入的初步阅读
- https://youtu.be/qddoffkvkcw?si=qefzsddspxdnd313
- 一堆嵌入的拥抱面MTEB基准
- GPT3嵌入和替代方案的显着问题
- https://observablehq.com/@simonw/gpt-3-token-coder-decoder
- karpathy想要象征化https://twitter.com/karpathy/status/1657949492345211009
- 仅解码器不需要位置编码
- 创建自己的语言https://twitter.com/giannis_daras/status/1531693104821985280
- Google Cloud Generative AI学习路径https://www.cloudskillsboost.google/paths/118
- img2img https://andys.page/posts/how-to-traw/
- 关于语言建模https://lena-voita.github.io/nlp_course/language_modeling.html以及对语言生成的平易近人但技术说明
- https://www.reddit.com/r/stablediffusion/comments/x9zmjd/quest_for_for_ultimate_photorealism_part_2_colors/
- https://medium.com/merzazine/prompt-design-for-dall-e-photorealism-emulating-reality-6f478df6f186
- 设置调整https://www.reddit.com/r/stablediffusion/comments/comments/x3k79h/the_feeling_of_discovery_sd_isd_is_is_like_a_great_proc/
- 种子选择https://www.reddit.com/r/stablediffusion/comments/x8szj9/tutorial_seed_selection_selection_and_the_phthe_impact_on_your/
- 次要参数参数差异研究(步骤,clamp_max,eta,cutn_batches等)https://twitter.com/kyrickyoung/status/1500196286930292742
- 生成AI:https://noahpinion.substack.com/p/generative-ai-autocomplete-for-verything?sd = pf
- GPT如何获得其能力?将语言模型的紧急能力追溯到其来源的好纸,该纸张具有GPT模型家族的发展历史以及能力如何发展
- https://barryz-Architecture-of-agentic-ll.notion.site/alloss-everything-i--knove-i--kout-about-llms-d117ca25d4624199be07e9b0ab356a77
高级阅读
- https://github.com/mooler0410/llmspracticalguide
- https://github.com/eleutherai/cookbook#the-cookbookbook eleuther ai的培训资源清单。比较https://github.com/google-research/tuning_playbook
- 抗炒作LLM阅读清单
- Openai的Jason Wei的6篇论文(博客)
- GPT-3纸(https://arxiv.org/abs/2005.14165)
- 链条的提示(https://arxiv.org/abs/2201.11903)
- 比例定律(https://arxiv.org/abs/2001.08361)
- 紧急能力(https://arxiv.org/abs/2206.07682)
- 语言模型可以遵循翻转标签和语义无关的标签(https://arxiv.org/abs/2303.03846)
- LLM纸笔记 - Eugene Yan的潜在太空纸俱乐部的笔记
- 从头开始的变压器https://e2eml.school/transformers.html
- 变形金刚vs lstm https://medium.com/analytics-vidhya/why-are-lstms-ruggling-to-matchup-with-transformers-a1cc5b2557e3
- 变压器代码步行https://twitter.com/mark_riedl/status/15555188022534176768
- Transformer fromansi https://lilianweng.github.io/posts/2023-01-27-the-transformer-family-v2/
- Carmack纸列表https://news.ycombinator.com/item?id=34639634
- 变压器模型:简介和目录https://arxiv.org/abs/2302.07730
- DeepMind-变压器的正式算法https://arxiv.org/pdf/2207.09238.pdf
- Jay Alammar解释器
- https://jalammar.github.io/illustrated-transformer/
- https://jalammar.github.io/visalizing-neural-machine-machine-translation-mechanics-of-seq2seq-models-with-ateention/
- 变形金刚的karpathy
- 融合:AI中持续的合并令人难以置信。当我开始〜十年前的视觉,语音,自然语言,强化学习等是完全分开的。您无法阅读各个区域的论文 - 这些方法是完全不同的,通常甚至不是基于ML。在2010年代,所有这些领域开始过渡1)到机器学习,特别是2)神经网。体系结构是多种多样的,但至少这些论文开始阅读更多相似之处,它们都利用大型数据集并优化神经网。但截至大约最近两年,即使在所有领域的神经网架构也开始看起来相同 - 变压器(可在〜200行Pytorch https://github.com/karpathy/karpathy/karpathy/mandpt/blob/master/master/master/master/modpt/model.py.py中定义),差异很小。要么是强大的基线,要么是(通常)艺术状态。 (Tweetstorm)
- 为什么变形金刚赢得了:变压器是一种宏伟的神经网络体系结构,因为它是一台通用可区分的计算机。它是同时的:1)表达式(在前进中)2)优化(通过反向传播+梯度下降)3)有效(高平行性计算图)TweetStorm
- https://twitter.com/karpathy/status/159341798989830848512?s = 20
- 在1小时的斯坦福演讲和8分钟的Lex Fridman摘要中详细阐述
- BabyGpt具有两个令牌0/1,上下文长度为3,将其视为有限状态马尔可夫链。它是针对50次迭代的序列“ 11110111111110”训练的。变压器的参数和体系结构修改了箭头上的概率。
- 从头开始构建GPT https://www.youtube.com/watch?v=kcc8fmeb1ny
- 60 loc https://jaykmody.com/blog/gpt-from-scratch/的不同GPT
- 从新的理论角度来看 - 扩散模型的代码驱动的介绍
- 137大语言模型的紧急能力
- 紧急射击促使任务:大基础和MMLU基准测试
- 紧急提示策略
- 指导跟随
- 刮擦
- 使用开放式知识进行事实检查
- 经过思考链的提示
- 可区分的搜索索引
- 自矛盾
- 在提示中利用解释
- 最小的提示
- 零射击链
- 通过P(true)校准
- 多语言链
- 询问我的任何提示
- 一些回音 - 他们是海市rage楼吗?只是不要使用苛刻的指标
- https://www.jasonwei.net/blog/common-arguments-regarding-emergent-ability
- https://hai.stanford.edu/news/ais-ostensible-emergent-ability-abilities-are-mirage
- 图像
- Eugene Yan对图像堆栈的文本解释
- vqgan/clip https://minimaxir.com/2021/08/vqgan-clip/
- 10年的图像生成历史https://zentralwerkstatt.org/blog/ten Yars-of-image-synthesis
- 视觉变形金刚(VIT)解释了https://www.pinecone.io/learn/vision-transformers/
- 负面提示https://minimaxir.com/2022/11/stable-diffusion-negative-prompt/
- 2022年最佳论文https://www.yitay.net/blog/2022-best-nlp-papers
- 大型生成模型中的可预测性和惊喜 - 迄今为止我们对扩展和能力的了解以及LLM的兴起的良好调查论文
- 更多及时的Eng Papers https://github.com/dair-ai/prompt-engineering-guide
- https://creator.nightcafe.studio/vqgan-clip-keyword-modifier-comporparison vqgan+剪辑关键字修饰符比较
- 变压器的历史
- 理查德·索切尔(Richard Socher)对导致变形金刚的注意机制的贡献https://overcast.fm/+r1p4nkffu/1:00:00
- https://kipp.ly/blog/transformer-taxonomy/本文档是我跑步的文献评论,适合试图赶上AI的人们。它涵盖了22种型号,11种建筑变化,7种培训后技术和3种训练技术(以及上述5件事)
- 了解大型语言模型是最相关文献的横截面
- 对Bandanau等人(2014年)表示赞赏,我相信这首先提出了在代币分数上应用SoftMax函数以计算注意力的概念,这为Vaswani等人(2017年)的原始变压器奠定了基础。 https://news.ycombinator.com/item?id=35589756
- https://finbarrtimbers.substack.com/p/five yars-of-progress-in-gpts gpt1/2/3,Megatron,Gopher,Gopher,Chinchilla,Palm,Palm,Llama
- 好的摘要论文(8件事)https://cims.nyu.edu/~sbowman/eightthings.pdf
- Huggingface Moe解释器
- https://blog.alexalemi.com/kl-is-is-all-you-need.html
我们将126个关键字修饰符与相同的提示和初始图像进行了比较。这些是结果。
- https://creator.nightcafe.studio/collection/8dmygkm1evxg7z9pv23w
- Google发布了partiprompts作为基准:https://parti.research.google/“ partiprompts(p2)是一组丰富的1600多个英文提示,我们作为这项工作的一部分发行。P2可用于测量跨越的模型功能各种类别和挑战方面。”
- 视频教程
- Pixel Art https://www.youtube.com/watch?v=uvjkqptr-8s&feature=youtu.be
- 论文的历史
- 2008:NLP(Collobert-Weston)的统一体系结构https://twitter.com/ylecun/status/1611921657802768384
- 2015年:半佩特序列学习https://twitter.com/deliprao/status/1611896130589057025?s = 20
- 2017:变形金刚(Vaswani等人)
- 2018:GPT(Radford等)
- 杂项
- Statibalie CIO的观点https://danieljeffries.substack.com/p/the-turning-point-point-for-truly-open?sd = pf
- https://github.com/awesome-stable-diffusion/awesome-stable-diffusion
- https://github.com/microsoft/LMOPS MSFT及时研究指南
- Gwern的幕后讨论Bing,GPT4和Microsoft-Openai关系https://www.lesswrong.com/posts/jtopapapapawehlnxnxvgtt/
这样的其他列表
- https://gist.github.com/rain-1/eebd5eb2784feecf450324e3341c8d
- https://github.com/underlines/awesome-marketing-datascience/blob/master/awesome-ai.md#llama-models
- https://github.com/imaurer/awesome-decentralized-llm
社区
- 不和谐(请参阅https://buttondown.email/ainews有关每日电子邮件回顾,实时更新)
- 潜在的空间不和谐(我们的!)
- 一般黑客学习
- chatgpt黑客不和谐
- 对齐实验室AI不和谐
- 研究不和谐
- Discolm Discord
- karpathy不和谐(无活动)
- 拥抱面矛盾
- Skunkworks AI Discord(新)
- Jeff Wang/LLM Perf爱好者不和谐
- CUDA模式(Mark Saroufim)请参阅YouTube和GitHub
- 艺术
- 可稳定的不一致
- DeForum Discord https://discord.gg/upmxxsrwzc
- Lexica Discord https://discord.com/invite/bmhbjj9wrh
- AI研究
- Laion Discord https://discord.gg/xbpbxfcfhd
- Eleuther Discord:https://www.eleuther.ai/get-involved/(primer)
- 各种初创公司
- 困惑不和谐https://discord.com/invite/kwjzsxpdux
- Midjourney的不和谐
- 如何使用MidJourney v4 https://twitter.com/fabianstelzer/status/15888856386540417024?s=20&t=plglugaeeds9hwfegvrrpg
- https://stablehorde.net/
- reddit
- https://reddit.com/r/stablediffusion
- https://www.reddit.com/r/localllama/
- https://www.reddit.com/r/bing
- https://www.reddit.com/r/openai
人们
*许多人未知,现在越来越多的alpha在Arxiv之外,消息来源包括但不限于:https://github.com/trending,hn,hn,hn,hn,那个利基偏见服务器,x,reddit上的动漫配置文件图片anons *-K
此列表将过时,但会让您入门。我要关注的人的直播清单是:https://twitter.com/i/lists/1585430245762441216
- 研究人员/开发人员
- https://twitter.com/_jasonwei
- https://twitter.com/johnowhitaker/status/156571003463156739
- https://twitter.com/altryne/status/1564671546341425157
- https://twitter.com/schmidhuberai
- https://twitter.com/nearcyan
- https://twitter.com/karinanguyen_
- https://twitter.com/abhi_venigalla
- https://twitter.com/advadnoun
- https://twitter.com/polynoamial
- https://twitter.com/vovahimself
- https://twitter.com/sarahookr
- https://twitter.com/shaneguml
- https://twitter.com/maartensap
- https://twitter.com/ethancaballero
- https://twitter.com/shayneredford
- https://twitter.com/seb_ruder
- https://twitter.com/rasbt
- https://twitter.com/wightmanr
- https://twitter.com/garymarcus
- https://twitter.com/ylecun
- https://twitter.com/karpathy
- https://twitter.com/pirroh
- https://twitter.com/eerac
- https://twitter.com/teknium
- https://twitter.com/alignment_lab
- https://twitter.com/picocreator
- https://twitter.com/charlespacker
- https://twitter.com/ldjconfirced
- https://twitter.com/nisten
- https://twitter.com/far__el
- https://twitter.com/i/lists/1713824630241202630
- 新闻/聚合器
- https://twitter.com/ai__pub
- https://twitter.com/weirdstableai
- https://twitter.com/multimodalart
- https://twitter.com/lastweekinai
- https://twitter.com/paperswithcode
- https://twitter.com/deeplearningai_
- https://twitter.com/dl_weekly
- https://twitter.com/slashml
- https://twitter.com/_akhaliq
- https://twitter.com/aaditya_ai
- https://twitter.com/bentossell
- https://twitter.com/johnvmcdonnell
- 创始人/建筑商/VC
- https://twitter.com/levelsio
- https://twitter.com/goodside
- https://twitter.com/c_valenzuelab
- https://twitter.com/raza_habib496
- https://twitter.com/sharifshameem/status/1562455690714775552
- https://twitter.com/genekogan/status/1555184488606564353
- https://twitter.com/levelsio/status/1566069427501764613?s = 20&t = campswtmhdssehqwd0k7ig
- https://twitter.com/amanrsanger
- https://twitter.com/ctjlewis
- https://twitter.com/sarahcat21
- https://twitter.com/jackclarksf
- https://twitter.com/alexandr_wang
- https://twitter.com/rameerez
- https://twitter.com/scottastevenson
- https://twitter.com/denisyarats
- 稳定
- https://twitter.com/stocietyai
- https://twitter.com/stablediffusion
- https://twitter.com/hardmaru
- https://twitter.com/jjitsev
- Openai
- https://twitter.com/sama
- https://twitter.com/ilyasut
- https://twitter.com/miramurati
- 拥抱面
- https://twitter.com/younesbelkada
- 艺术家
- https://twitter.com/karenxcheng/status/156462673001719813
- https://twitter.com/tomlikesrobots
- 其他
- 公司
- https://twitter.com/anthropicai
- https://twitter.com/assemblyai
- https://twitter.com/cohereai
- https://twitter.com/mosaicml
- https://twitter.com/metaai
- https://twitter.com/deepmind
- https://twitter.com/hellopaperspace
- 机器人和应用程序
- https://twitter.com/dreamtweetapp
- https://twitter.com/aiarteveryhour
行情,现实和振兴
- 狭窄的,tedium域Usecases https://twitter.com/willmanidis/status/1584900092615528448和https://twitter.com/willmanidis/willmanidis/status/15849001004801925166251925166
- Antihypes https://twitter.com/alexandr_wang/status/1573302977418387457
- Antihype https://twitter.com/fchollet/status/16121424242423425138688?s=46&t = plcnw9pf-co4bn08qqvaug
- 及时的Eng Memes
- https://twitter.com/_jasonwei/status/151684920367054848
- 与https://opguides.info/posts/aiartpanic/一起奋斗的事情
- 新的Google
- https://twitter.com/alexandr_wang/status/158502289159451036
- 新的PowerPoint
- 通过EMAD
- UI默认情况下附加提示
- dalle:https://twitter.com/levelsio/status/15885888888115912705?s=20&t = 0ojpgmh9k6k6miedyvg2i6gg
- 以前有两个冬天,一个1974-1980和一个1987-1993。 https://www.erichgrunewald.com/posts/the-prospect-of-an-ai-winter/。这里有更多评论。相关 - AI效应 - “一旦它起作用,而不是AI”
- 只是矩阵乘法/随机鹦鹉
- 甚至LLM怀疑论者Yann Lecun说LLM都有一定程度的理解:https://twitter.com/ylecun/status/16667947166766764023808
- 加里·马库斯(Gary Marcus)的“深度学习正在撞墙”
- “ Guo Lai Ren” Antihypers->忧虑
- https://adamkarvonen.github.io/machine_learning/2024/03/03/20/chess-gpt-interventions.html#next-token-poken-predictors
法律,道德和隐私
- NSFW过滤器https://vickiboykis.com/2022/11/18/some-notes-on-the-pable-diffusion-safety-filter/
- 在“ AI Art Panic”上https://opguides.info/posts/aiartpanic/
- 我失去了让我热爱工作的一切
- Midjourney艺术家名单
- Yannick影响OpenRail-M https://www.youtube.com/watch?v=w5m-dvzpzsq
- 接受AI Art Art https://twitter.com/daverogenmoser/status/1597746558145265664
- DRM问题https://undeleted.ronsor.com/voice.ai-gpl-violations-with-a-a-side-of-drm/
- 窃取艺术https://stabledablediffusionlitigation.com
- http://www.stablediffusionfrivolous.com/
- 稳定归因https://news.ycombinator.com/item?id=34670136
- 迪士尼的Coutner参数https://twitter.com/jonst0kes/status/1616219435492163584?
- 稳定扩散复制的研究https://twitter.com/officialzhvng/status/1620535905298817024?s = 20&t = nc-nw7pfda8nyrd08nynnylx1nw,该论文使用稳定的差异来生成17500万图像,并仅在3350,000张上产生17500万图像。我是对的,我的主要收获是在不记住培训示例时稳定的扩散如何?
- 刮擦内容
- https://blog.ericgoldman.org/archives/2023/08/web-scraping-for-me-me-but-not-not-not-thee-thee-guest-blog-post.htm
- 莎拉·西尔弗曼(Sarah Silverman)案-openai响应https://arstechnica.com/tech-policy/2023/08/openai-disputes-authors-authors-clairs-that-every-every-chatgpt-respons-response-is-is-a-a-a-a-a-a-a-a-a- derivative-work/
- Openai响应
- 许可
- AI重量不是打开的“来源” -Sid Sijbrandij
- 多样性和公平
- 性化少数族裔https://twitter.com/lanadenina/status/168023888883206832129原因是色情
- openai随机对付“黑”,以使达勒多样化
- 隐私 - 机密计算https://www.edgeless.systems/blog/how-confidential-computing-and-ai-fit-together/
- AI工作https://donaldclarkplanb.blogspot.com/2024/02/this-is-is-why-why-idea-that-ai-will-just.html
对齐,安全
- 人类-https://arxiv.org/pdf/2112.00861.pdf
- 乐于助人:尝试做要问的事情。简洁,高效。询问后续行动。重定向不良问题。
- 诚实:提供准确的信息,表达不确定性。如果没有能力/知识,请不要模仿专家的回复
- Harmless: not offensive/discriminatory. refuse to assist dangerous acts. recognize when providing sensitive/consequential advice
- criticism and boundaries as future direction https://twitter.com/davidad/status/1628489924235206657?s=46&t=TPVwcoqO8qkc7MuaWiNcnw
- Just Eliezer entire body of work
- https://twitter.com/esyudkowsky/status/1625922986590212096
- agi list of lethalities https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities
- note that eliezer has made controversial comments in the past and also in recent times (TIME article)
- Connor Leahy may be a more sane/measured/technically competent version of yud https://overcast.fm/+aYlOEqTJ0
- it's not just paperclip factories
- https://www.lesswrong.com/posts/HBxe6wdjxK239zajf/what-failure-looks-like
- the 6 month pause letter
- https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- yann lecun vs andrew ng https://www.youtube.com/watch?v=BY9KV8uCtj4
- https://scottaaronson.blog/?p=7174
- emily bender response
- Geoffrey Hinton leaving Google
- followed up by one sentence public letter https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
- xrisk - Is avoiding extinction from AI really an urgent priority? (关联)
- AI Is not an arms race. (关联)
- If we're going to label AI an 'extinction risk,' we need to clarify how it could happen. (关联)
- OpenAI superalignment https://www.youtube.com/watch?v=ZP_N4q5U3eE
规定
- chinese regulation https://www.chinalawtranslate.com/en/overview-of-draft-measures-on-generative-ai/
- https://twitter.com/mmitchell_ai/status/1647697067006111745?s=46&t=90xQ8sGy63D2OtiaoGJuww
- China is the only major world power that explicitly regulates generative AI
- italy banning chatgpt
- At its annual meeting in Japan, the Group of Seven (G7), an informal bloc of industrialized democratic governments, announced the Hiroshima Process, an intergovernmental task force empowered to investigate risks of generative AI. G7 members, which include Canada, France, Germany, Italy, Japan, the United Kingdom, and the United States, vowed to craft mutually compatible laws and regulate AI according to democratic values. These include fairness, accountability, transparency, safety, data privacy, protection from abuse, and respect for human rights.
- US President Joe Biden issued a strategic plan for AI. The initiative calls on US regulatory agencies to develop public datasets, benchmarks, and standards for training, measuring, and evaluating AI systems.
- Earlier this month, France's data privacy regulator announced a framework for regulating generative AI.
- regulation vs Xrisk https://1a3orn.com/sub/essays-regulation-stories.html
- Multimodal Prompt Injection in GPT4V
杂项
- 耳语
- https://huggingface.co/spaces/sensahin/YouWhisper YouWhisper converts Youtube videos to text using openai/whisper.
- https://twitter.com/jeffistyping/status/1573145140205846528 youtube whipserer
- multilingual subtitles https://twitter.com/1littlecoder/status/1573030143848722433
- video subtitles https://twitter.com/m1guelpf/status/1574929980207034375
- you can join whisper to stable diffusion for reasons https://twitter.com/fffiloni/status/1573733520765247488/photo/1
- known problems https://twitter.com/lunixbochs/status/1574848899897884672 (edge case with catastrophic failures)
- textually guided audio https://twitter.com/FelixKreuk/status/1575846953333579776
- Codegen
- CodegeeX https://twitter.com/thukeg/status/1572218413694726144
- https://github.com/salesforce/CodeGen https://joel.tools/codegen/
- pdf to structured data - Impira used t to do it (dead link: https://www.impira.com/blog/hey-machine-whats-my-invoice-total) but if you look hard enough on twitter there are some替代方案
- text to Human Motion diffusion https://twitter.com/GuyTvt/status/1577947409551851520
- abs: https://arxiv.org/abs/2209.14916
- project page: https://guytevet.github.io/mdm-page/