AIノート
生成的および大規模な言語モデルに焦点を当てたAI最先端に関するメモ。これらは、https://lspace.swyx.io/ Newsletterの「原材料」です。
このレポは以前はhttps://github.com/sw-yx/prompt-engと呼ばれていましたが、プロンプトエンジニアリングが誇張されているために変更されました。これは現在、AIエンジニアリングノートレポです。
このReadmeは、スペースの高レベルの概要にすぎません。このリポジトリの他のマークダウンファイルには、ほとんどの更新が表示されます。
-
TEXT.md
テキスト生成、主にGPT -4を使用していますTEXT_CHAT.md
chatgptと競合他社、およびデリバティブ製品に関する情報TEXT_SEARCH.md
GPT -4対応のセマンティック検索およびその他の情報に関する情報TEXT_PROMPTS.md
良いGPT3プロンプトの小さなスワイプファイル
INFRA.md
AIインフラストラクチャ、ハードウェア、スケーリングに関する生のメモAUDIO.md
/音楽/音声転写 +生成の追跡CODE.md
コピロットのようなコードゲンモデルIMAGE_GEN.md
最も開発されたファイル、安定した拡散に関する最も重点のあるメモと、MidjourneyとDalleの一部。-
IMAGE_PROMPTS.md
良い画像プロンプトの小さなスワイプファイル
- リソース:スタンディング、クリーンアップされたリソースは、パーマリンクされることを目的としています
- スタブノート- 将来のカバレッジエリアの非常に小/軽量のプロトページ
AGENTS.md
「エージェントAI」の追跡 - ブログのアイデア- これらのメモから派生した潜在的なブログ投稿のアイデアbc
目次
- 動機付けのユースケース
- トップAIが読みます
- コミュニティ
- 人々
- その他
- 引用、現実、やる気
- 法的、倫理、プライバシー
動機付けのユースケース
- 画像
- https://mpost.io/best-100-stable-diffusion-plompts
- 3D MRI合成脳画像 - ニューロイメージング統計学者からの肯定的な受信
- マルチプレイヤー安定拡散
- ビデオ
- 有名な映画シーンのimg2img(lalaland)
- ebsynth + koe_recastで俳優を変換するimg2img
- Ebsynthの動作方法https://twitter.com/tomlikesrobots/status/1612047103806545923?s=20
- 仮想ファッション(Karenxcheng)
- シームレスなタイル画像
- シーンの進化(Xander)
- https://twitter.com/orbamsterdam/status/1568200010747068417?s=21&t=rliacnwoijjmis37s8qccw
- WebUI IMG2IMG Collaboration https://twitter.com/_akhaliq/status/1563582621757898752
- 回転https://twitter.com/tomlikesrobots/status/1571096804539912192でビデオからビデオへ
- 「プロンプトペイント」https://twitter.com/1littlecoder/status/1572573152974372864
- あなたの顔のaudio2videoアニメーションhttps://twitter.com/siavashg/status/15975888865665363969
- 3Dモデル +アニメーションの物理的なおもちゃhttps://twitter.com/sergeyglkn/status/1587430510988611584
- ミュージックビデオ
- ビデオはラジオスターを殺しました、ColabこれはOpenaiのささやきのスピーチとテキストを使用し、YouTubeビデオを撮影し、YouTubeビデオの歌詞によって促された安定した拡散アニメーションを作成することができます
- 安定した拡散ビデオは、プロンプトとオーディオを補間することでビデオを生成します
- 直接Text2Videoプロジェクト
- https://twitter.com/_akhaliq/status/15755546841533497344
- https://makeavideo.studio/-エクスプローラーhttps://webvid.datasette.io/webvid/videos
- https://phenaki.video/
- https://github.com/thudm/cogvideo
- https://imagen.research.google/video/
- テキストから3d https://twitter.com/_akhaliq/status/1575541930905243652
- https://dreamfusion3d.github.io/
- オープンソースImpl:https://github.com/ashawkey/stable-dreamfusion
- デモhttps://twitter.com/_akhaliq/status/1578035919403503616
- テキスト製品
- 最後にuseCasesのリストがありますhttps://huyenchip.com/2023/04/11/llm-engineering.html
- 碧玉
- Obsidian https://reasonabledeviations.com/2023/02/05/gpt-for-second-brain/のgpt
- GPT3メールhttps://github.com/sw-yx/gpt3-emailと電子メールクラスタリング
- GPT3()Google Sheet 2020、2022 -Sheet Google Sheets https://twitter.com/mehran__jalali/status/1608159307513618433
- https://gpt3demo.com/apps/google-sheets
- チャームhttps://twitter.com/shubroski/status/1620139262925754368?s=20
- https://www.summari.com/ summariは忙しい人がもっと読むのを助けます
- マーケットマップ/風景
- Elad Gil 2024スタックチャート
- セコイア市場マップ2023年1月、2023年7月、2023年9月
- Base10 Market Map https://twitter.com/letsenhance_io/status/1594826383305449491
- Matt Shumer Market Map https://twitter.com/mattshumer_/status/1620465468229451776 https://docs.google.com/document/d/1sewtbzrf087f6hf6hfxiyeoisgc1n4n4n3o7ryzijvexcoq/ed.
- nfx https://www.nfx.com/post/generative-ai-tech-5-layers?ref=context-by-cohere
- a16z https://a16z.com/2023/01/19/who-owns-the-generative-ai-platform/
- https://a16z.com/2023/06/20/emerging-architectures-for-llm-applications/
- https://a16z.com/100-gen-ai-apps
- Madrona https://www.madrona.com/foundation-models/
- コート
- https://www.coatue.com/blog/perspective/ai-the-coming-revolution-2023
- https://x.com/sam_awrabi/status/1742324900034150646?s=20
- ゲーム資産 -
- emadスレッドhttps://twitter.com/emostaque/status/1591436813750906882
- sinario.gg https://twitter.com/emmanuel_2m/status/1593356241283125251
- 3Dゲームキャラクターモデリングの例
- Mariogpt https://arxiv.org/pdf/2302.05981.pdf https://www.slashgear.com/1199870/mariogpt-uses-ai-ty-generate-endless-super-mario-mario-mario-levels-free/ https: //github.com/shyamsn97/mario-gpt/blob/main/mario_gpt/level.py
- https://news.ycombinator.com/item?id=36295227
トップAIが読みます
より高度なGPT3読み取りはhttps://github.com/sw-yx/ai-notes/blob/main/text.mdに分割されました
- https://www.gwern.net/gpt-3#prompts-aspramming
- https://learnprompting.org/
初心者は読みます
- AIのビルゲイツ(ツイート)
- 「AIの開発は、マイクロプロセッサ、パーソナルコンピューター、インターネット、携帯電話の作成と同じくらい基本的なものです。人々が働き、学習し、旅行し、ヘルスケアを獲得し、互いにコミュニケーションをとる方法を変えます。」
- 開発者向けのAIのSteve Yegge
- Karpathy 2023 LLMSへのイントロ(Sarah Chiengからのメモ)
- Sarah Chieng経由のNeuripsのOpenaiからのプロンプトエンジニアリングガイド
- このAIの瞬間が本当の取引かもしれない理由
- サム・アルトマン - すべてのためのムーアの法則
- MSR https://youtu.be/hqi6o5dlyfcからの基礎モデルの優れた紹介
- OpenAIプロンプトチュートリアルhttps://beta.openai.com/docs/quickstart/add-some-examples
- Google Lamda Intro https://aitestkitchen.withgoogle.com/how-lamda-works
- Karpathy Gradient降下コース
- 「トランスフォーマーの仕組み」に関するFTビジュアルストーリーテリング
- dalle2プロンプトの書き込みbook http://dallery.gallery/wp-content/uploads/2022/07/the-dall%C2%B7E-2-PROMPT-BOOK-V1.02.PDF
- https://medium.com/nerd-for-tech/prompt-engineering-the-career-of-future-2fb93f90f117
- AIを使用して、情報の取得、データの操作、画像の作成を通じて物事を行う方法
- https://ourworldindata.org/brief-history-of-ai aiの進捗状況の概要が素敵なチャートを使用しています
- Jon StokesのAIコンテンツ生成、パート1:機械学習の基本
- Andrew Ng- AIの機会
- トランスモデルとは何ですか?それらはどのように機能しますか? - たぶん少し高すぎる
- テキスト生成
- Humanloopのプロンプトエンジニアリング101
- Stephen Wolframの説明https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
- Jon Stokes Jonstokes.com/p/the-chat-stack-gpt-4-and-the-nearに相当します
- https://andymatuschak.org/prompts/
- Cohere's LLM University https://docs.cohere.com/docs/llmu
- Jay Alammarのすべてのものへのガイド:https://llm.university/
- https://www.jonstokes.com/p/chatgpt-explained-a-guide-for-normiesのためのnormies
- 画像生成
- https://wiki.installgentoo.com/wiki/stable_diffusionの概要
- https://www.reddit.com/r/stablediffusion/comments/x41n87/how_to_get_images_that_dont_suck_a/
- https://mpost.io/best-100-stable-diffusion-plompts
- https://www.kdnuggets.com/2021/03/beginners-guide-clip-model.html
- 非技術の場合
- https://www.jonstokes.com/p/ai-content-generation-part-1-machine
- https://www.protocol.com/generative-ai-startup-landscape-map
- https://twitter.com/saranormous/status/1572791179636518913
中間読み取り
- AIレポート:2018、2019、2020、2021、2022
- 逆年代順の主要なイベントhttps://bleedingedge.ai/
- LLMSについて私たちが知っていること - 研究の素晴らしい要約
- KarpathyのLLMSへの1時間ガイド - サラチエンからの要約
- どのようにLLMを作成しますか?
- ステージ1:モデルの事前トレーニング
- ステージ2:モデルの微調整
- ステージ3:モデル推論
- ステージ4:[オプション]カスタマイズを伴うLLMSのスーパーチャージ
- 現在のLLM「リーダーボード」
- LLMSの未来:次は何ですか?
- LLMパフォーマンスを改善する方法は?
- LLM能力を改善する方法は?
- LLMダークアーツ
- ジェイルブレイク
- 迅速な注射
- データ中毒とバックドア攻撃
- LLM Mathへの森川ガイド、特に5つのスケーリングチャレンジピース
- 言語モデルのハッカーガイド(YouTube)ジェレミーハワードの90分のLLM学習の完全な概要 - 基本から始まる:すべての最新のLLMで使用される3段階のトレーニング /微調整 /分類器ULMFITアプローチ。
- https://spreadsheets-Are-All-you-need.ai
- 「LLMSの奇妙な世界に追いつく」 - サイモン・ウィリソンの40分の概要 + AIエンジニアのための質問を開く
- flyteからのLLMS概要
- クレメンタイン・フォーリエは、エヴァルがどのように行われるかについて
- LLMベースのシステムと製品を構築するためのパターン - 素晴らしい要約
- Evals:パフォーマンスを測定する
- Rag:最近の外部知識を追加する
- 微調整:特定のタスクで良くなる
- キャッシュ:レイテンシとコストを削減するため
- GuardRails:出力品質を確保するため
- 防御UX:エラーを優雅に予測および管理する
- ユーザーフィードバックを収集する:データフライホイールを構築するには
- ベクトルデータベース:テクニカルプライマー[PDF]ベクターDBSの非常に素晴らしいスライド
- ハイブリッド検索のカバレッジがありません(ベクター +語彙)。さらなる議論
- A16Z AI Canon https://a16z.com/2023/05/25/ai-canon/
- ソフトウェア2.0 :Andrej Karpathyは、新しいAI Waveが本当に重要な理由を明確に説明した最初の人物の1人でした。彼の主張は、AIはコンピューターをプログラムするための新しい強力な方法であるということです。 LLMが急速に改善されると、この論文は先見の明が証明されており、AI市場がどのように進行するかについて優れたメンタルモデルを提供します。
- GPTの状態:また、Karpathyから、これは一般的な機能のChatGPT / GPTモデル、それらの使用方法、およびR&Dがどのような方向に進むかについての非常に親しみやすい説明です。
- ChatGptは何をしていますか...そしてなぜそれが機能するのですか? :コンピューターの科学者で起業家のスティーブン・ウルフラムは、最新のAIモデルの仕組みについて、第一原則から長くて非常に読みやすい説明を提供します。彼は初期のニューラルネットから今日のLLMSおよびChatGptまでのタイムラインに従います。
- Transformers、説明:Dale Markowitzによるこの投稿は、「LLMとは何ですか、どのように機能しますか?」という質問に対するより短く、より直接的な答えです。これは、トピックを容易にし、テクノロジーの直感を開発する素晴らしい方法です。 GPT-3について書かれましたが、それでも新しいモデルに適用されます。
- 安定した拡散の仕組み:これは、最後の投稿とのコンピュータービジョンアナログです。 Chris McCormickは、一般的にテキストから画像へのモデルを中心に安定した拡散がどのように機能するかについて、素人の説明を説明します。さらに穏やかな紹介については、R/StabledIffusionからこのコミックをご覧ください。
- 説明者
- 一言で言えば、ディープラーニング:コアコンセプト:Nvidiaのこの4部構成のシリーズは、2015年に実践されている深い学習の基本を進めており、AIについて学ぶ人にとっては良いリソースです。
- コーダーのための実用的な深い学習:実用的な例とコードを通じて説明されているAIの基礎に関する包括的な無料のコース。
- Word2vecの説明:LLMS(およびすべての言語モデル)のビルディングブロックである埋め込みとトークンの簡単な紹介。
- はい、BackPropを理解する必要があります。詳細を理解したい場合は、バックプロパゲーションに関する詳細な投稿です。さらに詳しく説明する場合は、YouTubeでStanford CS231Nの講義(コースはこちら)をお試しください。
- コース
- Stanford CS229 :Andrew Ngを使用した機械学習の紹介。機械学習の基本をカバーしています。
- Stanford CS224N :Chris Manningとの深い学習を伴うNLP。
- https://github.com/mlabonne/llm-course
- https://cims.nyu.edu/~sbowman/eighthings.pdf
- LLMSは、ターゲットを絞ったイノベーションがなくても、投資の増加により予想通りに能力を発揮します。
- 多くの重要なLLM行動は、投資の増加の副産物として予測不可能に現れます。
- LLMは、多くの場合、外の世界の表現を学び、使用しているように見えます。
- LLMの動作を操縦するための信頼できるテクニックはありません。
- 専門家は、LLMの内部の仕組みをまだ解釈することができません。
- タスクの人間のパフォーマンスは、LLMパフォーマンスの上限ではありません。
- LLMSは、作成者の価値やWebテキストでエンコードされた価値を表現する必要はありません。
- LLMとの簡単な相互作用は、しばしば誤解を招くものです。
- Simonwはhttps://fedi.simonwillison.net/@simon/110144185463887790を強調しています
- 10 LLM Researchのオープンチャレンジhttps://huyenchip.com/2023/08/16/llm-research-open-challenges.html
- OpenaiプロンプトENG Cookbook https://github.com/openai/openai-cookbook/blob/main/techniques_to_improve_reliability.md
- プロンプトENGの概要https://lilianweng.github.io/posts/2023-03-15-plompt-engineering/
- https://moultano.wordpress.com/2023/06/28/the-many-ways-that-digital-minds-can-know/は、検索とAIを比較します
- 2022年の主要なAI開発の要約https://www.deeplearning.ai/the-batch/issue-176/
- Dalle2 Asset Generation + Inpainting https://twitter.com/aifunhouse/status/1576202480936886273?s=20&t=5exa1uydpva2sjzm-sxhcq
- Suhail Journey https://twitter.com/suhail/status/1541276314485018625?s=20&t = x2mvkqkhdr28iz3vzeeo8w
- Composable Diffusion- "and" of "and" https://twitter.com/tomlikesrobots/status/1580293860902985728
- BPEトークン化https://towardsdatascience.com/byte-pair-encoding-subwordベース - トークン化 - アルゴリズム--77828a70bee0
- GPT2のソースhttps://github.com/openai/gpt-2/blob/master/src/encoder.py
- BPEはhttps://www.lesswrong.com/posts/dfbfclza4pejckekc/a-mechanistic-explanation-for-solidgoldmagikarp-like-tokens?commentid = 9jndkscwewbbb4gtcqであることに注意してください
- // ----------------------------------------------------------- -------------------------------------------------------------- ----------------単一のGPT-4トークンです
- GPT-3.5は、useralativeImagePathについて考えすぎるとクラッシュします
- 数学と文字列のキャラクターの問題を引き起こしますhttps://news.ycombinator.com/item?id=35363769
- そして、回避の問題を引き起こします
- トークンがLLMとは異なるデータセットを持っているときにグリッチトークンが発生します
- トークン化が厄介な理由について話しているKarpathy
- https://platform.openai.com/tokenizerおよびhttps://github.com/openai/tiktoken(最新:https://tiktokenizer.vercel.app/)
- wordpiece-> bpe-> sencencetransformer
- 埋め込みに関する予備的な読書
- https://youtu.be/qddoffkvkcw?si=QEFZSDDSPXDND313
- 埋め込みの束のHuggingface MTEBベンチマーク
- GPT3埋め込みと考慮すべき代替案に関する顕著な問題
- https://observablehq.com/@simonw/gpt-3-token-encoder-decoder
- Karpathyは、トークン化がhttps://twitter.com/karpathy/status/1657949234535211009を離れることを望んでいます
- デコーダーのみに不要な位置エンコードhttps://twitter.com/a_kazemnejad/status/1664277559968927744?s = 20
- 独自の言語https://twitter.com/giannis_daras/status/1531693104821985280を作成します
- Google Cloud Generative AI Learning Path https://www.cloudskillsboost.google/paths/118
- img2img https://andys.page/posts/how-to-draw/
- 言語モデリングでhttps://lena-voita.github.io/nlp_course/language_modeling.htmlと親しみやすいが、分布からのサンプリングやいくつかの機械的な意欲的性を含む言語生成の技術的な説明
- フォトリアリズムのクエストhttps://www.reddit.com/r/-stablediffusion/comments/x9zmjd/quest_for_ultimate_photorealism_part_2_colors/
- https://medium.com/merzazine/prompt-design-for-dall-e-photorealism-emulating-reality-6f478df6f186
- 設定https://www.reddit.com/r/-stablediffusion/comments/x3k79h/the_feeling_of_discovery_sd_is_like_a_great_proc/
- シード選択https://www.reddit.com/r/stablediffusion/comments/x8szj9/tutorial_seed_selection_and_the_impact_on_your/
- マイナーパラメーターパラメーターの違い研究(ステップ、CLAMP_MAX、ETA、Cutn_Batchesなど)https://twitter.com/kyrickyoung/status/1500196286930292742
- 生成AI:すべてのオートコンプリートhttps://noahpinion.substack.com/p/generative-ai-autocomplete-for- Everything?sd=pf
- GPTはどのようにその能力を獲得しますか?言語モデルの緊急能力をソースにトレースするモデルのGPTファミリーの開発履歴と、機能の開発方法を備えた良い紙
- https://barryz-architecture-of-agentic-llm.notion.site/almost-everything-i-know-about-llms-d117ca25d4624199be07e9b0ab356a77
高度な読み取り
- https://github.com/mooler0410/llmspracticalguide
- すべてのINPTペーパーの良いキュレーションリスト
- https://github.com/eleutherai/cookbook#the-cookbook Eleuther AIのトレーニングのためのリソースのリスト。 https://github.com/google-research/tuning_playbookと比較してください
- アンチ誇大宣伝LLMリーディングリストhttps://gist.github.com/veekaybee/be375ab33085102f9027853128dc5f0e
- OpenaiのJasonWeiからの6つの論文(ブログ)
- GPT-3ペーパー(https://arxiv.org/abs/2005.14165)
- チェーンオブサブプロンプト(https://arxiv.org/abs/2201.11903)
- スケーリング法(https://arxiv.org/abs/2001.08361)
- 緊急能力(https://arxiv.org/abs/2206.07682)
- 言語モデルは、フリップされたラベルとセマンティックに関連していないラベルの両方に従うことができます(https://arxiv.org/abs/2303.03846)
- LLMペーパーノート - ユージンヤンによる潜在宇宙用紙クラブからのメモ
- スクラッチからの変圧器https://e2eml.school/transformers.html
- Transformers vs LSTM https://medium.com/analytics-vidhya/why-are-lstms-struggling-to-matchup-with-a1cc5b2557e3
- トランスコードWalkthru https://twitter.com/mark_riedl/status/15555188022534176768
- トランスファミリーhttps://lilianweng.github.io/posts/2023-01-27-the-transformer-family-v2/
- Carmack Paper List https://news.ycombinator.com/item?id=34639634
- トランスモデル:紹介およびカタログhttps://arxiv.org/abs/2302.07730
- DeepMind-トランスフォーマーの正式なアルゴリズムhttps://arxiv.org/pdf/2207.09238.pdf
- ジェイ・アラマーの説明者
- https://jalammar.github.io/illustrated-transformer/
- https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/
- トランスのカルパティ
- 収束:AIでの継続的な統合は信じられないほどです。私が始めたとき、10年前にビジョン、スピーチ、自然言語、強化学習などが完全に別々でした。エリア全体で論文を読むことができませんでした - アプローチは完全に異なっていて、多くの場合MLベースではありませんでした。 2010年代、これらのすべての領域は1)機械学習、具体的には2)ニューラルネットに移行し始めました。アーキテクチャは多様でしたが、少なくとも論文はより類似して読み始めました。それらはすべて、大規模なデータセットを利用し、ニューラルネットを最適化しました。しかし、約のように。過去2年間、すべての領域のニューラルネットアーキテクチャでさえ同一に見え始めています - 変圧器(Pytorch https://github.com/karpathy/mingpt/blob/master/master/mingpt/model.py…の変圧器) )、非常に小さな違いがあります。強力なベースラインとして、または(多くの場合)最先端のいずれか。 (ツイートストーム)
- なぜトランスが勝ったのか:変圧器は、一般的な微分微分コンピューターであるため、壮大なニューラルネットワークアーキテクチャです。同時に次のとおりです。1)表現力(前方パス)2)最適化可能(backpropagation+勾配降下)
- https://twitter.com/karpathy/status/1593417989830848512?s=20
- 1時間のスタンフォードレクチャーと8分間のレックスフリッドマンの要約で詳しく説明しました
- 2つのトークン0/1と3のコンテキストの長さを備えたBabyGptは、有限状態マルコフチェーンと見なされます。 50回の反復で「1111011111011110」というシーケンスで訓練されました。トランスのパラメーターとアーキテクチャは、矢印の確率を変更します。
- ゼロからgptを構築https://www.youtube.com/watch?v=kcc8fmeb1ny
- 60 loc https://jaykmody.com/blog/gpt-from-scratch/
- 新しい理論的観点から、ゼロからの拡散モデル - 拡散モデルのコード駆動型イントロ
- 137大規模な言語モデルの緊急能力
- 緊急の少数のショットがタスクを促しました:ビッグベンチとMMLUベンチマーク
- 緊急プロンプト戦略
- 指導のフォロー
- スクラッチパッド
- 事実チェックのためにオープンブックの知識を使用します
- 考え方のプロンプト
- 微分可能な検索インデックス
- 自己整合性
- プロンプトの説明を活用します
- 最も少ないプロンプト
- ゼロショットチェーンオブサボ
- P経由のキャリブレーション(TRUE)
- 多言語のチェーン
- Any-anythingのプロンプト
- いくつかのプッシュバック - 彼らはミラージュですか?過酷なメトリックを使用しないでください
- https://www.jasonwei.net/blog/common-arguments- regarding-emergent-ability
- https://hai.stanford.edu/news/ais-ostentible-emergent-abilities-are-mirage
- 画像
- ユージンヤンテキストの画像スタックhttps://eugeneyan.com/writing/text-to-image/
- vqgan/クリップhttps://minimaxir.com/2021/08/vqgan-clip/
- 10年間の画像生成履歴https://zentralwerkstatt.org/blog/ten years-of-image-synthesis
- Vision Transformers(VIT)説明https://www.pinecone.io/learn/vision-transformers/
- ネガティブプロンプトhttps://minimaxir.com/2022/11/stable-diffusion-negative-plt/
- 2022年の最高の論文https://www.yitay.net/blog/2022-best-nlp-papers
- 大規模な生成モデルでの予測可能性と驚き - これまでのところ、スケーリングと機能とLLMの上昇について私たちが知っていることの良い調査論文
- より迅速なENG論文https://github.com/dair-ai/prompt-engineering-guide
- https://creator.nightcafe.studio/vqgan-clip-keyword-modifier-comparison vqgan+クリップキーワード修飾子比較
- 変圧器の歴史
- トランスフォーマーに至るまでの注意メカニズムへの貢献についてリチャード・ソチャーhttps://overcast.fm/+r1p4nkffu/1:00:00
- https://kipp.ly/blog/transformer-taxonomy/このドキュメントは、AIに追いつく人々のための私の実行中の文献レビューです。 22のモデル、11の建築的変更、7つのトレーニング後のテクニック、3つのトレーニングテクニック(および上記の5つのもの)をカバーしています。
- 大規模な言語を理解することで、最も関連性の高い文献の断面をモデル化してスピードを上げる
- Bandanau et al(2014)にクレジットを与えると、最初にトークンスコアにソフトマックス関数を適用して注意を払うという概念を提案し、Vaswani et al(2017)による元のトランスの段階を設定しました。 https://news.ycombinator.com/item?id=35589756
- https://finbarrtimbers.substack.com/p/five years-of-progress-in-gpts gpt1/2/3、megatron、gopher、chinchilla、palm、llama
- 良い要約論文(8つのことを知っておくべきこと)https://cims.nyu.edu/~sbowman/eighthings.pdf
- Huggingface Moe excounter
- https://blog.alexalemi.com/kl-is-all-you-need.html
126のキーワード修飾子を同じプロンプトと初期画像と比較しました。これらは結果です。
- https://creator.nightcafe.studio/collection/8dmygkm1evxg7z9pv23w
- GoogleはベンチマークとしてPartipromptsをリリースしました:https://parti.research.google/ "Partiprompts(P2)は、この作業の一部としてリリースされる英語の1600を超えるプロンプトの豊富なセットです。P2は、モデル能力を測定するために使用できます。さまざまなカテゴリと挑戦の側面。」
- ビデオチュートリアル
- ピクセルアートhttps://www.youtube.com/watch?v=uvjkqptr-8s&feature=youtu.be
- 論文の歴史
- 2008年:NLP(Collobert-Weston)の統一アーキテクチャhttps://twitter.com/ylecun/status/1611921657802768384
- 2015:半学者シーケンス学習https://twitter.com/deliprao/status/1611896130589057025?s=20
- 2017:トランス(Vaswani et al)
- 2018:GPT(Radford et al)
- その他
- stabilityai cioの視点https://danieljeffries.substack.com/p/the-turning-point-for-truly-pen?sd=pf
- https://github.com/awesome-stable-diffusion/awesome-stable-diffusion
- https://github.com/microsoft/lmops MSFTプロンプトリサーチガイド
- GwernがBing、GPT4、およびMicrosoft-Openai関係の舞台裏での議論https://www.lesswrong.com/posts/jtopawehlnxnxvgtt/bing-chat-is-blative-攻撃的に魔法
このような他のリスト
- https://gist.github.com/rain-1/eebd5e5eb2784feecf450324e3341c8d
- https://github.com/underlines/awesome-marketing-datascience/blob/master/awesome-ai.md#lama-models
- https://github.com/imaurer/awesome-edecentralized-llm
コミュニティ
- 不一致(毎日の電子メールの要約については、https://buttondown.email/ainewsを参照してください、ライブ更新)
- 潜在的な宇宙の不一致(私たち!)
- 一般的なハッキングと学習
- ChatGptハッカーの不一致
- アライメントラボAI不一致
- Nous Research scord
- 流体不一致
- Karpathyの不一致(非アクティブ)
- Huggingface discord
- SkunkWorksAI Discord(新)
- Jeff Wang/LLM Perf Averasts scord
- CUDAモード(Mark Saroufim)YouTubeとGithubを参照してください
- 美術
- stablediffusion scord
- Deforum Discord https://discord.gg/upmxxsrwzc
- Lexica Discord https://discord.com/invite/bmhbjj9wrh
- AI研究
- Laion Discord https://discord.gg/xbpbxfcfhd
- Eleuther Discord:https://www.eleuther.ai/get-involved/(Primer)
- さまざまなスタートアップ
- Perplexity discord https://discord.com/invite/kwjzsxpdux
- Midjourneyの不一致
- Midjourney V4 https://twitter.com/fabianstelzer/status/1588856386540417024?s=20&t=plglugaeedss9hwfegvrrpgの使用方法
- https://stablehorde.net/
- エージェント
- AutoGpt Discord
- babyagi scord
- reddit
- https://reddit.com/r/stablediffusion
- https://www.reddit.com/r/localllama/
- https://www.reddit.com/r/bing
- https://www.reddit.com/r/openai
人々
*多くの人々には知られていないが、アルファの増加は現在Arxivの外側にあり、ソースにはhttps://github.com/trending、hn、そのニッチの不一致サーバー、Xのアニメプロフィール写真アノン、Redditが含まれますが、これに限定されません。 * - k
このリストは古くなりますが、開始します。フォローする人の私のライブリストはhttps://twitter.com/i/lists/1585430245762441216です。
- 研究者/開発者
- https://twitter.com/_jasonwei
- https://twitter.com/johnowhitaker/status/1565710033463156739
- https://twitter.com/altryne/status/1564671546341425157
- https://twitter.com/schmidhuberai
- https://twitter.com/nearcyan
- https://twitter.com/karinanguyen_
- https://twitter.com/abhi_venigalla
- https://twitter.com/advadnoun
- https://twitter.com/polynoamial
- https://twitter.com/vovahimself
- https://twitter.com/sarahookr
- https://twitter.com/shaneguml
- https://twitter.com/maartensap
- https://twitter.com/etancaballero
- https://twitter.com/shayneredford
- https://twitter.com/seb_ruder
- https://twitter.com/rasbt
- https://twitter.com/wightmanr
- https://twitter.com/garymarcus
- https://twitter.com/ylecun
- https://twitter.com/karpathy
- https://twitter.com/pirroh
- https://twitter.com/eerac
- https://twitter.com/teknium
- https://twitter.com/alignment_lab
- https://twitter.com/picocreator
- https://twitter.com/charlespacker
- https://twitter.com/ldjconfirmed
- https://twitter.com/nisten
- https://twitter.com/far__el
- https://twitter.com/i/lists/1713824630241202630
- ニュース/アグリゲーター
- https://twitter.com/ai__pub
- https://twitter.com/weirdstableai
- https://twitter.com/multimodalart
- https://twitter.com/lastweekinai
- https://twitter.com/paperswithcode
- https://twitter.com/deeplearningai_
- https://twitter.com/dl_weekly
- https://twitter.com/slashml
- https://twitter.com/_akhaliq
- https://twitter.com/aaditya_ai
- https://twitter.com/bentossell
- https://twitter.com/johnvmcdonnell
- 創設者/ビルダー/VC
- https://twitter.com/levelsio
- https://twitter.com/goodside
- https://twitter.com/c_valenzuelab
- https://twitter.com/raza_habib496
- https://twitter.com/sharifshameem/status/1562455690714775552
- https://twitter.com/genekogan/status/1555184488606564353
- https://twitter.com/levelsio/status/1566069427501764613?s=20&t=campswtssehqwd0k7ig
- https://twitter.com/amanrsanger
- https://twitter.com/ctjlewis
- https://twitter.com/sarahcat21
- https://twitter.com/jackclarksf
- https://twitter.com/alexandr_wang
- https://twitter.com/rameerez
- https://twitter.com/scottastevenson
- https://twitter.com/denisyarats
- 安定性
- https://twitter.com/stabilityai
- https://twitter.com/stablediffusion
- https://twitter.com/hardmaru
- https://twitter.com/jjitsev
- Openai
- https://twitter.com/sama
- https://twitter.com/ilyasut
- https://twitter.com/miramurati
- ハギングフェイス
- https://twitter.com/younesbelkada
- アーティスト
- https://twitter.com/karenxcheng/status/156462673001719813
- https://twitter.com/tomlikesrobots
- 他の
- 企業
- https://twitter.com/anthropicai
- https://twitter.com/assemblyai
- https://twitter.com/cohereai
- https://twitter.com/mosaicml
- https://twitter.com/metaai
- https://twitter.com/deepmind
- https://twitter.com/hellopaperspace
- ボットとアプリ
- https://twitter.com/dreamtweetapp
- https://twitter.com/aiarteveryhour
引用、現実、やる気
- 狭い退屈なドメインUSECASES https://twitter.com/willmanidis/status/1584900092615528448およびhttps://twitter.com/willmanidis/status/1584900100480192516
- Antihype https://twitter.com/alexandr_wang/status/157330297418387457
- Antihype https://twitter.com/fchollet/status/1612142423425138688?s=46&t = plcnw9pf-co4bn08qvaug
- プロンプトエングミーム
- https://twitter.com/_jasonwei/status/1516844920367054848
- https://opguides.info/posts/aiartpanic/
- 新しいGoogle
- https://twitter.com/alexandr_wang/status/158502891594510336
- 新しいPowerPoint
- エマド経由
- UIでデフォルトでプロンプトを追加します
- dalle:https://twitter.com/levelsio/status/15888888115912705?s=20&t = 0ojpgmh9k6miedyvg2i6gg
- 1974年から1980年の1つと1987年から1993年の2つの冬がありました。 https://www.erichgrunewald.com/posts/the-prospect-of-an-ai-winter/。ここでもう少し解説。関連-AI効果 - 「一度機能すると、AIではありません」
- それは単なるマトリックスの乗算/確率的オウムです
- LLMの懐疑的なYann Lecunでさえ、LLMはある程度の理解があると言います:https://twitter.com/ylecun/status/1667947166764023808
- ゲイリー・マーカスの「ディープラーニングは壁を打つ」https://nautil.us/deep-learning-is-hitting-a-wall-238440/プッシュシンボリックシステム
- 「Guo Lai Ren」アンティハイパー - >心配
- https://adamkarvonen.github.io/machine_learning/2024/03/20/chess-gpt-interventions.html#next-token-predictors
法的、倫理、プライバシー
- NSFWフィルターhttps://vickiboykis.com/2022/11/18/some-notes-on-the-table-diffusion-safety-filter/
- 「ai art panic」https://opguides.info/posts/aiartpanic/
- 私はミッドジャーニーを通して私の仕事を愛してくれたすべてを失いました
- Midjourneyアーティストリスト
- YannickはOpenRail-M https://www.youtube.com/watch?v=w5m-dvzpzsqに影響を与えます
- AIアートを受け入れるアートスクールhttps://twitter.com/daverogenmoser/status/1597746558145265664
- drmの問題https://undeleted.ronsor.com/voice.ai-gpl-violations-with-a-side-of-drm/
- 盗むアートhttps://stablediffusionlitigation.com
- http://www.stablediffusionfrivolous.com/
- 安定した帰属https://news.ycombinator.com/item?id=34670136
- ディズニーのコートナー議論https://twitter.com/jonst0kes/status/1616219435492163584?s=46&t=hqqqdh1yewhwusqxytmf8w
- 安定した拡散コピーの研究https://twitter.com/officialzhvng/status/1620535905298817024?s=20&t=NC-NW7PFDA8NYRD08LX1NWこの論文は、17500万の拡散を使用して350,000を超えると、17500万の拡散を発見しました。これからの私の主なポイントは、トレーニングの例を覚えていない安定した拡散がどれほど良いかということですか?
- 削りコンテンツ
- https://blog.ericgoldman.org/archives/2023/08/web-scraping-for---- not-for-thee-guest-blog-post.htm
- Sarah Silverman Case-Openai Response https://arstechnica.com/tech-policy/2023/08/openai-disputes-authors-claims-that- every-chatgpt-response-is-a-derivative-work/
- Openai応答
- ライセンス
- AIの重みはオープンではありません。「ソース」-Sid Sijbrandij
- 多様性と公平性
- 性的マイノリティhttps://twitter.com/lanadenina/status/1680238883206832129
- Dalleを多様にするために、「Black」をランダムにタッキングします
- プライバシー - 機密コンピューティングhttps://www.edgeless.systems/blog/how-confidential-computing-and-ai-fit-together/
- AI taking jobs https://donaldclarkplanb.blogspot.com/2024/02/this-is-why-idea-that-ai-will-just.html
Alignment, Safety
- Anthropic - https://arxiv.org/pdf/2112.00861.pdf
- Helpful: attempt to do what is ask. concise, efficient. ask followups. redirect bad questions.
- Honest: give accurate information, express uncertainty. don't imitate responses expected from an expert if it doesn't have the capabilities/knowledge
- Harmless: not offensive/discriminatory. refuse to assist dangerous acts. recognize when providing sensitive/consequential advice
- criticism and boundaries as future direction https://twitter.com/davidad/status/1628489924235206657?s=46&t=TPVwcoqO8qkc7MuaWiNcnw
- Just Eliezer entire body of work
- https://twitter.com/esyudkowsky/status/1625922986590212096
- agi list of lethalities https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities
- note that eliezer has made controversial comments in the past and also in recent times (TIME article)
- Connor Leahy may be a more sane/measured/technically competent version of yud https://overcast.fm/+aYlOEqTJ0
- it's not just paperclip factories
- https://www.lesswrong.com/posts/HBxe6wdjxK239zajf/what-failure-looks-like
- the 6 month pause letter
- https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- yann lecun vs andrew ng https://www.youtube.com/watch?v=BY9KV8uCtj4
- https://scottaaronson.blog/?p=7174
- emily bender response
- Geoffrey Hinton leaving Google
- followed up by one sentence public letter https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
- xrisk - Is avoiding extinction from AI really an urgent priority? (リンク)
- AI Is not an arms race. (リンク)
- If we're going to label AI an 'extinction risk,' we need to clarify how it could happen. (リンク)
- OpenAI superalignment https://www.youtube.com/watch?v=ZP_N4q5U3eE
規制
- chinese regulation https://www.chinalawtranslate.com/en/overview-of-draft-measures-on-generative-ai/
- https://twitter.com/mmitchell_ai/status/1647697067006111745?s=46&t=90xQ8sGy63D2OtiaoGJuww
- China is the only major world power that explicitly regulates generative AI
- italy banning chatgpt
- At its annual meeting in Japan, the Group of Seven (G7), an informal bloc of industrialized democratic governments, announced the Hiroshima Process, an intergovernmental task force empowered to investigate risks of generative AI. G7 members, which include Canada, France, Germany, Italy, Japan, the United Kingdom, and the United States, vowed to craft mutually compatible laws and regulate AI according to democratic values. These include fairness, accountability, transparency, safety, data privacy, protection from abuse, and respect for human rights.
- US President Joe Biden issued a strategic plan for AI. The initiative calls on US regulatory agencies to develop public datasets, benchmarks, and standards for training, measuring, and evaluating AI systems.
- Earlier this month, France's data privacy regulator announced a framework for regulating generative AI.
- regulation vs Xrisk https://1a3orn.com/sub/essays-regulation-stories.html
- Multimodal Prompt Injection in GPT4V
その他
- Whisper
- https://huggingface.co/spaces/sensahin/YouWhisper YouWhisper converts Youtube videos to text using openai/whisper.
- https://twitter.com/jeffistyping/status/1573145140205846528 youtube whipserer
- multilingual subtitles https://twitter.com/1littlecoder/status/1573030143848722433
- video subtitles https://twitter.com/m1guelpf/status/1574929980207034375
- you can join whisper to stable diffusion for reasons https://twitter.com/fffiloni/status/1573733520765247488/photo/1
- known problems https://twitter.com/lunixbochs/status/1574848899897884672 (edge case with catastrophic failures)
- textually guided audio https://twitter.com/FelixKreuk/status/1575846953333579776
- Codegen
- CodegeeX https://twitter.com/thukeg/status/1572218413694726144
- https://github.com/salesforce/CodeGen https://joel.tools/codegen/
- pdf to structured data - Impira used t to do it (dead link: https://www.impira.com/blog/hey-machine-whats-my-invoice-total) but if you look hard enough on twitter there are some alternatives
- text to Human Motion diffusion https://twitter.com/GuyTvt/status/1577947409551851520
- abs: https://arxiv.org/abs/2209.14916
- project page: https://guytevet.github.io/mdm-page/