learning
1.0.0
سجل مستمر للأشياء التي أتعلمها لبناء مهارات هندسة برمجيات أساسية قوية مع توسيع معرفتي بالتقنيات المجاورة قليلاً كل يوم.
تم التحديث : مرة واحدة في الشهر | التركيز الحالي : الذكاء الاصطناعي التوليدي
الموارد | تقدم |
---|---|
Datacamp: كتابة كود بايثون الفعال | ✅ |
Datacamp: وظائف الكتابة في بيثون | ✅ |
Datacamp: البرمجة الشيئية في بيثون | ✅ |
Datacamp: البرمجة الشيئية المتوسطة في بيثون | ✅ |
Datacamp: استيراد البيانات في لغة بايثون (الجزء الأول) | ✅ |
Datacamp: استيراد البيانات في لغة بايثون (الجزء الثاني) | ✅ |
Datacamp: لغة بايثون المتوسطة لعلوم البيانات | ✅ |
مخيم البيانات: مجموعة أدوات علم بيانات بايثون (الجزء الأول) | ✅ |
مخيم البيانات: مجموعة أدوات علم بيانات بايثون (الجزء الثاني) | ✅ |
Datacamp: تطوير حزم بايثون | ✅ |
معسكر البيانات: أساسيات كوندا | ✅ |
يوتيوب: البرنامج التعليمي: سيباستيان ويتوفسكي - مجموعة أدوات مطور بايثون الحديثة | ✅ |
Datacamp: العمل مع التواريخ والأوقات في بيثون | ✅ |
Datacamp: أتمتة سطر الأوامر في بيثون | ⬜ |
Datacamp: اختبار الوحدة لعلوم البيانات في بايثون | ✅ |
الكتاب: بايثون 201 | ⬜ |
الكتاب: الكتابة الاصطلاحية لبايثون 3 | ⬜ |
الكتاب: التطوير الموجه بالاختبار باستخدام بايثون | ⬜ |
مقال: العديد من أدوات سطر الأوامر المساعدة في بايثون | ⬜ |
المقال: مقدمة مبرمج إلى Unicode | ⬜ |
المقال: مقدمة لتنميط الذاكرة في بايثون | ✅ |
مقال: تحديد ملامح كود بايثون باستخدام Memory_profiler | ✅ |
مقال: كيفية استخدام "memory_profiler" لملف تعريف استخدام الذاكرة بواسطة Python Code؟ | ✅ |
الموارد | تقدم |
---|---|
الكتاب: خوارزميات جروكينج | ✅ |
الكتاب: السيرة الذاتية التقنية من الداخل إلى الخارج | ✅ |
Neetcode: الخوارزميات وهياكل البيانات للمبتدئين | ✅ |
الجرأة: مقدمة إلى هياكل البيانات والخوارزميات | ✅ |
الموارد | تقدم |
---|---|
Datacamp: مقدمة إلى Shell لعلوم البيانات | ✅ |
Datacamp: مقدمة إلى برمجة Bash | ✅ |
Datacamp: معالجة البيانات في شل | ✅ |
معهد ماساتشوستس للتكنولوجيا: الفصل المفقود | ✅ |
Udacity: أساسيات سطر أوامر Linux | ✅ |
الجرأة: ورشة شل | ✅ |
Udacity: تكوين خوادم الويب Linux | ✅ |
الموارد | تقدم |
---|---|
Udacity: التحكم في الإصدار باستخدام Git | ✅ |
Datacamp: مقدمة إلى Git لعلوم البيانات | ✅ |
الجرأة: جيثب والتعاون | ✅ |
الجرأة: كيفية استخدام Git وGitHub | ✅ |
الموارد | تقدم |
---|---|
Udacity: مقدمة إلى قاعدة البيانات العلائقية | ✅ |
Udacity: مفاهيم وتصميم أنظمة قواعد البيانات | ⬜ |
معسكر البيانات: تصميم قاعدة البيانات | ⬜ |
Datacamp: مقدمة لقواعد البيانات في بايثون | ⬜ |
Datacamp: مقدمة إلى SQL لعلوم البيانات | ✅ |
معسكر البيانات: SQL المتوسطة | ⬜ |
Datacamp: الانضمام إلى البيانات في PostgreSQL | ⬜ |
Udacity: SQL لتحليل البيانات | ⬜ |
Datacamp: تحليل البيانات الاستكشافية في SQL | ⬜ |
Datacamp: تطبيق SQL على مشاكل العالم الحقيقي | ⬜ |
Datacamp: تحليل بيانات الأعمال في SQL | ⬜ |
Datacamp: إعداد التقارير في SQL | ⬜ |
Datacamp: اتخاذ القرارات المستندة إلى البيانات في SQL | ⬜ |
معسكر البيانات: مفاهيم NoSQL | ⬜ |
Datacamp: مقدمة إلى MongoDB في بايثون | ⬜ |
الموارد | تقدم |
---|---|
الجرأة: المصادقة والترخيص: OAuth | ⬜ |
Udacity: HTTP وخوادم الويب | ⬜ |
Udacity: التواصل بين العميل والخادم | ⬜ |
الجرأة: تصميم واجهات برمجة تطبيقات RESTful | ⬜ |
Datacamp: مقدمة إلى واجهات برمجة التطبيقات في بايثون | ⬜ |
Udacity: الشبكات لمطوري الويب | ⬜ |
الموارد | تقدم |
---|---|
الكتاب: تصميم أنظمة التعلم الآلي | ✅ |
Neetcode: تصميم النظام للمبتدئين | ✅ |
Neetcode: مقابلة تصميم النظام | ✅ |
Datacamp: تحليلات العملاء واختبار A/B في بايثون | ✅ |
معسكر البيانات: اختبار أ/ب في بايثون | ⬜ |
الجرأة: اختبار أ/ب | ⬜ |
معسكر البيانات: مفاهيم MLOps | ✅ |
Datacamp: مفاهيم مراقبة التعلم الآلي | ✅ |
الموارد | تقدم |
---|---|
Datacamp: أسس الاحتمالية في بيثون | ✅ |
معسكر البيانات: مقدمة في الإحصاء | ✅ |
Datacamp: مقدمة في الإحصاء في بايثون | ✅ |
Datacamp: اختبار الفرضيات في بيثون | ✅ |
معسكر البيانات: التفكير الإحصائي في لغة بايثون (الجزء الأول) | ✅ |
معسكر البيانات: التفكير الإحصائي في لغة بايثون (الجزء الثاني) | ✅ |
معسكر البيانات: التصميم التجريبي في بيثون | ✅ |
Datacamp: ممارسة أسئلة المقابلة الإحصائية في بيثون | ⬜ |
edX: الإحصائيات الأساسية لتحليل البيانات باستخدام Excel | ✅ |
الجرأة: مقدمة في الإحصائيات الاستدلالية | ✅ |
معهد ماساتشوستس للتكنولوجيا 18.06 الجبر الخطي، ربيع 2005 | ✅ |
الجرأة: المتجهات الذاتية والقيم الذاتية | ✅ |
الجرأة: تجديد الجبر الخطي | ⬜ |
يوتيوب: جوهر الجبر الخطي | ⬜ |
الموارد | تقدم |
---|---|
Codecademy: تعلم HTML | ✅ |
Codecademy: إنشاء موقع على شبكة الإنترنت | ✅ |
المادة: النص البديل | ⬜ |
الموارد | تقدم |
---|---|
Pluralsight: تحديد المواقع CSS | ✅ |
Pluralsight: مقدمة إلى CSS | ✅ |
Pluralsight: CSS: الخصوصية، نموذج الصندوق، وأفضل الممارسات | ✅ |
Pluralsight: CSS: استخدام Flexbox للتخطيط | ✅ |
مدرسة الكود: الانطلاق باستخدام Bootstrap | ✅ |
تعدد البصر: أساسيات تجربة المستخدم | ✅ |
Codecademy: تعلم SASS | ✅ |
CSS لمطوري جافا سكريبت | ✅ |
مقال: إنشاء رسم توضيحي في تصميم Figma | ✅ |
الكتاب: إعادة هيكلة واجهة المستخدم | ⬜ |
يوتيوب: كيفية جعل موقع الويب الخاص بك ليس قبيحًا: تجربة المستخدم الأساسية للمبرمجين | ⬜ |
الموارد | تقدم |
---|---|
الجرأة: ES6 - تحسين جافا سكريبت | ✅ |
الجرأة: مقدمة إلى جافا سكريبت | ✅ |
الجرأة: كائنية التوجه JS 1 | ✅ |
الجرأة: وجوه المنحى JS 2 | ✅ |
Udemy: فهم الآلة الكاتبة | ✅ |
Codecademy: تعلم جافا سكريبت | ✅ |
أكاديمية الكود: مسار مسج | ✅ |
Pluralsight: استخدام أدوات مطوري Chrome | ✅ |
الموارد | تقدم |
---|---|
مقال: نظرة عامة على خوارزميات تحسين النسب المتدرجة | ✅ |
الكتاب: التدريب العملي على التعلم الآلي باستخدام Scikit-Learn وKeras وTensorFlow، الإصدار الثاني | ⬜ |
الكتاب: كتاب تمهيدي للتعلم الآلي | ✅ |
كتاب: اصنع شبكتك العصبية الخاصة | ✅ |
الكتاب: تعلم الآلة | ✅ |
الكتاب: الدليل المصور StatQuest للتعلم الآلي | ✅ |
Fast.ai: التعلم العميق العملي للمبرمجين (الجزء الأول) | ✅ |
Fast.ai: التعلم العميق العملي للمبرمجين (الجزء الثاني) | ⬜ |
Datacamp: طرق المجموعة في بيثون | ✅ |
Datacamp: تعزيز التدرج الشديد باستخدام XGBoost | ⬜ |
Datacamp: طرق التجميع باستخدام SciPy | ✅ |
معسكر البيانات: التعلم غير الخاضع للرقابة في بيثون | ✅ |
الجرأة: التجزئة والتكتل | ✅ |
Datacamp: مقدمة إلى بايثون لعلوم البيانات | ✅ |
edX: تنفيذ التحليلات التنبؤية باستخدام Spark في Azure HDInsight | ✅ |
Datacamp: التعلم الخاضع للإشراف باستخدام scikit-Learn | ✅ |
Datacamp: التعلم الآلي باستخدام النماذج المستندة إلى الأشجار في بايثون | ✅ |
Datacamp: المصنفات الخطية في بيثون | ✅ |
Datacamp: الشبكات العصبية التلافيفية لمعالجة الصور | ✅ |
Datacamp: التحقق من صحة النموذج في بيثون | ✅ |
Datacamp: ضبط المعلمة الفائقة في بايثون | ✅ |
Datacamp: تحليلات الموارد البشرية في بيثون: التنبؤ بحركة الموظفين | ✅ |
Datacamp: التنبؤ بحركة العملاء في بيثون | ✅ |
معسكر البيانات: تخفيض الأبعاد في بيثون | ✅ |
Datacamp: المعالجة المسبقة للتعلم الآلي في بيثون | ✅ |
Datacamp: أنواع البيانات لعلم البيانات | ✅ |
Datacamp: تنظيف البيانات في بايثون | ✅ |
Datacamp: هندسة الميزات للتعلم الآلي في بيثون | ✅ |
Datacamp: توقع نسبة النقر إلى الظهور باستخدام التعلم الآلي في بايثون | ✅ |
Datacamp: مقدمة للمفاهيم المالية باستخدام بايثون | ✅ |
Datacamp: كشف الاحتيال في بيثون | ✅ |
كارباثي: الشبكات العصبية: من الصفر إلى البطل | ✅ |
مقال: تهيئة الوزن في الشبكات العصبية: رحلة من الأساسيات إلى Kaiming | ⬜ |
الموارد | تقدم |
---|---|
كتاب: معالجة اللغة الطبيعية بالمحولات | ✅ |
ستانفورد CS224U: فهم اللغة الطبيعية | ربيع 2019 | ✅ |
ستانفورد CS224N: ستانفورد CS224N: البرمجة اللغوية العصبية مع التعلم العميق | شتاء 2019 | ✅ |
CMU: معسكر تدريب البرمجة اللغوية العصبية منخفض الموارد 2020 | ✅ |
جامعة كارنيجي ميلون البرمجة اللغوية العصبية متعددة اللغات 2020 | ✅ |
Datacamp: هندسة الميزات للبرمجة اللغوية العصبية في بايثون | ✅ |
Datacamp: أساسيات معالجة اللغة الطبيعية في بيثون | ✅ |
Datacamp: التعبيرات العادية في بيثون | ✅ |
Datacamp: RNN لنمذجة اللغة | ✅ |
Datacamp: إنشاء اللغة الطبيعية في بايثون | ✅ |
Datacamp: بناء Chatbots في بايثون | ✅ |
Datacamp: تحليل المشاعر في بيثون | ✅ |
Datacamp: الترجمة الآلية في بايثون | ✅ |
مقال: الفعالية غير المعقولة للمتضافرات | ⬜ |
مقال: FuzzyWuzzy: مطابقة السلسلة الغامضة في بايثون | ✅ |
مقال: شرح مامبا | ⬜ |
مقال: دليل مرئي لنماذج مامبا ودولة الفضاء | ⬜ |
مقال: أساسيات التكمية مع العناق | ✅ |
الموارد | تقدم |
---|---|
المقال: SolidGoldMagikarp (إضافة إلى الإنشاء الفوري) | ⬜ |
DeepLearning.AI: التدريب المسبق على LLMs | ✅ |
DeepLearning.AI: كيف تعمل نماذج الانتشار | ⬜ |
كارباثي: مقدمة إلى نماذج اللغات الكبيرة [ 1hr ] | ✅ |
كارباثي: لنبني أداة GPT Tokenizer [ 2hr13m ] | ✅ |
كارباثي: لنعيد إنتاج GPT-2 (124 مليونًا) [ 4hr1m ] | ⬜ |
يوتيوب: دليل المتسللين لنماذج اللغة [ 1hr30m ] | ✅ |
يوتيوب: 5 سنوات من GPTs مع Finbarr Timbers | ⬜ |
المادة: أخذ العينات لتوليد النص | ⬜ |
DeepLearning.AI: تعزيز التعلم من ردود الفعل البشرية | ✅ |
يوتيوب: شرح LLaMA: KV-Cache، التضمين الموضعي الدوار، RMS Norm، تنبيه الاستعلام المجمع، SwiGLU [ 1h10m ] | ⬜ |
الموارد | تقدم |
---|---|
نماذج لغة المحولات المدربة مسبقًا للبحث - الجزء الأول | ⬜ |
نماذج لغة المحولات المدربة مسبقًا للبحث - الجزء 2 | ⬜ |
نماذج لغة المحولات المدربة مسبقًا للبحث - الجزء 3 | ⬜ |
نماذج لغة المحولات المدربة مسبقًا للبحث - الجزء 4 | ⬜ |
فهم مؤشر IVF-PQ الخاص بـ LanceDB | ⬜ |
القليل من التجميع يقطع شوطا طويلا بالنسبة للتمثيلات متعددة المتجهات | ✅ |
دورة استرجاع Fullstack | |
مقال: مستويات التعقيد: تطبيقات RAG | ✅ |
مقال: تحسين RAG الخاص بك بشكل منهجي | ⬜ |
مقال: توقف عن استخدام LGTM@Few كمقياس (أفضل RAG) | ⬜ |
مقال: الفاكهة المعلقة لبحث RAG | ⬜ |
مقال: ما يجب أن يعرفه مهندسو الذكاء الاصطناعي عن البحث | ✅ |
المقال: تقييم استراتيجيات التقطيع للاسترجاع | ⬜ |
المقال: تضمينات الجملة. مقدمة لتضمين الجملة | ⬜ |
DeepLearning.AI: بناء وتقييم تطبيقات RAG المتقدمة | ✅ |
DeepLearning.AI: قواعد بيانات المتجهات: من التضمين إلى التطبيقات | ✅ |
DeepLearning.AI: الاسترجاع المتقدم للذكاء الاصطناعي باستخدام Chroma | ✅ |
DeepLearning.AI: الضغط الفوري وتحسين الاستعلام | ✅ |
DeepLearning.AI: نماذج اللغات الكبيرة مع البحث الدلالي [ 1hr ] | ✅ |
DeepLearning.AI: بناء التطبيقات باستخدام قواعد بيانات المتجهات | ✅ |
DeepLearning.AI: بناء بحث متعدد الوسائط وRAG | ⬜ |
DeepLearning.AI: الرسوم البيانية المعرفية لـ RAG | ⬜ |
DeepLearning.AI: الوظائف والأدوات والوكلاء مع LangChain | ⬜ |
DeepLearning.AI: بناء RAG الوكيل باستخدام LlamaIndex | ⬜ |
DeepLearning.AI: أنظمة متعددة للذكاء الاصطناعي مع CrewAI | ⬜ |
DeepLearning.AI: أنماط تصميم وكيل الذكاء الاصطناعي مع AutoGen | ⬜ |
DeepLearning.AI: وكلاء الذكاء الاصطناعي في LangGraph | ⬜ |
DeepLearning.AI: بناء وكيل قاعدة البيانات الخاص بك | ⬜ |
DeepLearning.AI: المعالجة المسبقة للبيانات غير المنظمة لتطبيقات LLM | ⬜ |
DeepLearning.AI: تضمين النماذج: من الهندسة المعمارية إلى التنفيذ | ✅ |
كوز الصنوبر: قواعد بيانات المتجهات في الإنتاج للمهندسين المشغولين | ⬜ |
كوز الصنوبر: استرجاع الجيل المعزز | ⬜ |
كوز الصنوبر: دليل LangChain AI | ⬜ |
كوز الصنوبر: طرق التضمين للبحث عن الصور | ⬜ |
كوز الصنوبر: فايس: الدليل المفقود | ⬜ |
كوز الصنوبر: بحث المتجهات في البرية | ⬜ |
كوز الصنوبر: معالجة اللغة الطبيعية للبحث الدلالي | ⬜ |
يوتيوب: تحسين تطبيقات RAG بشكل منهجي | ✅ |
يوتيوب: العودة إلى أساسيات RAG مع جو بيرجوم | ✅ |
يوتيوب: ما وراء أساسيات الاسترجاع من أجل زيادة الجيل (مع بن كلافيه) | ✅ |
يوتيوب: RAG من الصفر | 0/14 |
مقال: LambdaMART في العمق | ⬜ |
مقال: الجيل الموجه مع الخطوط العريضة | ✅ |
الموارد | تقدم |
---|---|
مقال: هندسة OpenAI السريعة | ⬜ |
مقال: أساسيات الحث وكيفية تطبيقها بفعالية | ✅ |
الدورات الأنثروبولوجية | ⬜ |
مقال: الهندسة السريعة (ليليانج ونج) | ✅ |
مقال: الهندسة السريعة 201: الأساليب والأدوات المتقدمة | ✅ |
المادة: تحسين LLMs من أجل الدقة | ✅ |
المادة: الاشعال • الهندسة السريعة | ⬜ |
مقال: نقاط نهاية Anyscale: ميزات وضع JSON واستدعاء الوظائف | ⬜ |
مقال: إنشاء نص موجه باستخدام نماذج لغوية كبيرة | ⬜ |
مقال: بدائل الرؤية GPT-4 | ⬜ |
DeepLearning.AI: هندسة ChatGPT الفورية للمطورين | ⬜ |
DeepLearning.AI: الهندسة السريعة لنماذج الرؤية | ⬜ |
DeepLearning.AI: الهندسة السريعة مع اللاما 2 و3 | ⬜ |
Wandb: هندسة LLM: المخرجات المنظمة | ⬜ |
DeepLearning.AI: استدعاء الوظائف واستخراج البيانات باستخدام LLMs | ⬜ |
السلسلة: الحقن الفوري | ⬜ |
يوتيوب: نظرة عامة سريعة على الهندسة [ 1hr4m ] | ✅ |
يوتيوب: الجيل المنظم مع LLMs | ⬜ |
الموارد | تقدم |
---|---|
المقال: أنماط بناء الأنظمة والمنتجات القائمة على LLM | ✅ |
مقال: البنى الناشئة لتطبيقات LLM | ✅ |
مقال: كيفية جعل LLMs تسير بسرعة | ⬜ |
مقال: في الخط السريع! فك التشفير التخميني - نموذج أكبر بـ 10 مرات، بدون تكلفة إضافية | ⬜ |
مقال: تنسيق وحدات معالجة الرسوميات المتعددة: التوسع الفعال لاستدلال LLM | ⬜ |
مقال: الاهتمام بالاستعلام المتعدد هو كل ما تحتاجه | ⬜ |
مقال: مجموعة أدوات تحسين استنتاج المحولات | ⬜ |
DeepLearning.AI: خدمة LLMs بكفاءة | ✅ |
DeepLearning.AI: الاختبار الآلي لـ LLMOps | ✅ |
DeepLearning.AI: تطبيقات Red Teaming LLM | ✅ |
DeepLearning.AI: تقييم وتصحيح نماذج الذكاء الاصطناعي التوليدية باستخدام الأوزان والتحيزات | ⬜ |
DeepLearning.AI: الجودة والسلامة لتطبيقات LLM | ⬜ |
DeepLearning.AI: LLMOps | ⬜ |
DeepLearning.AI: تطبيقات LLM بدون خادم مع Amazon Bedrock | ⬜ |
DeepLearning.AI: التكميم في العمق | ⬜ |
DeepLearning.AI: مقدمة إلى الذكاء الاصطناعي على الجهاز | ⬜ |
مقال: دليل مرئي للتكميم | ⬜ |
المقال: QLoRA وتكميم 4 بت | ⬜ |
مقال: فهم تقدير حجم الذكاء الاصطناعي/ماجستير القانون من خلال التصورات التفاعلية | ⬜ |
المادة: سلسلة الاستدلال LLM: 3. شرح التخزين المؤقت لـ KV | ⬜ |
المادة: سلسلة الاستدلال LLM: 4. التخزين المؤقت لـ KV، نظرة أعمق | ⬜ |
المادة: سلسلة الاستدلال LLM: 5. تشريح أداء النموذج | ⬜ |
يوتيوب: SBTB 2023: تشارلز فراي، المعالجات المتوازية: الاتصالات الماضية والمستقبلية بين LLMs وOS Kernels | ⬜ |
المادة: حساب استنتاج المحولات | ⬜ |
الموارد | تقدم |
---|---|
مقال: ما تعلمناه من عام من البناء مع حاملي شهادات LLM | ⬜ |
مقال: كيفية إنشاء واستخدام البيانات الاصطناعية للضبط الدقيق | ✅ |
مقال: منتج الذكاء الاصطناعي الخاص بك يحتاج إلى تقييمات | ✅ |
مقال: تقييمات LLM الخاصة بمهمة محددة والتي تنجح وما لا تنجح | ✅ |
المقال: دولاب الموازنة البيانات لتطبيقات LLM | ⬜ |
مقال: ماجستير في القانون من الخنادق: 10 دروس مستفادة من تفعيل النماذج في GoDaddy | ✅ |
المقال: التقييم وكشف الهلوسة للملخصات المجردة | ✅ |
مقال: أنماط تجربة المستخدم الناشئة لتطبيقات الذكاء الاصطناعي ومساعدي الطيارين | ✅ |
مقال: دليل تدريب LLM للمبتدئين | ⬜ |
مقال: دفع دعم البيانات المنظمة في ChatGPT إلى أقصى حدوده | ✅ |
مقال: GPTed: استخدام GPT-3 للتدقيق النثري الدلالي | ✅ |
المقال: لا تقلق بشأن LLMs | ⬜ |
DeepLearning.AI: ضبط نماذج اللغات الكبيرة | ✅ |
DeepLearning.AI: بناء الأنظمة باستخدام ChatGPT API | ⬜ |
DeepLearning.AI: LangChain لتطوير تطبيقات LLM | ⬜ |
DeepLearning.AI: LangChain: الدردشة مع بياناتك | ⬜ |
DeepLearning.AI: بناء تطبيقات الذكاء الاصطناعي التوليدية باستخدام Gradio | ✅ |
DeepLearning.AI: نماذج مفتوحة المصدر ذات وجه معانق | ⬜ |
DeepLearning.AI: البدء مع ميسترال | ⬜ |
Datacamp: تطوير تطبيقات LLM باستخدام LangChain | ⬜ |
LLMOps: البناء باستخدام LLMs | ⬜ |
المعسكر التدريبي للماجستير في القانون - ربيع 2023 | ✅ |
يوتيوب: مسح للتقنيات لتحقيق أقصى قدر من الأداء LLM | ✅ |
يوتيوب: اللبنات الأساسية لأنظمة ومنتجات LLM: يوجين يان | ✅ |
يوتيوب: الضبط الدقيق لنماذج OpenAI - أفضل الممارسات | ✅ |
يوتيوب: الدورة التدريبية: LLM Fine-Tuning مع Axolotl | 0/4 |
يوتيوب: صقل LLMs | 1/5 |
يوتيوب: تقييم LLM | 0/5 |
يوتيوب: بناء تطبيقات LLM | 0/8 |
الموارد | تقدم |
---|---|
Udemy: مطور AWS معتمد - مشارك 2018 | ✅ |
الموارد | تقدم |
---|---|
مقال: Django وHTMX وAlpine.js: مواقع الويب الحديثة، JavaScript اختيارية | ✅ |
الموارد | تقدم |
---|---|
معسكر البيانات: مقدمة إلى Seaborn | ✅ |
معسكر البيانات: مقدمة إلى Matplotlib | ✅ |
الموارد | تقدم |
---|---|
معسكر البيانات: مقدمة إلى MLFlow | ✅ |
الموارد | تقدم |
---|---|
المستندات: ابدأ الإنشاء باستخدام Next.js |
الموارد | تقدم |
---|---|
معسكر البيانات: مؤسسات الباندا | ✅ |
Datacamp: انضمام الباندا لمستخدمي جداول البيانات | ✅ |
Datacamp: معالجة DataFrames باستخدام الباندا | ✅ |
Datacamp: دمج DataFrames مع الباندا | ✅ |
Datacamp: معالجة البيانات باستخدام الباندا | ✅ |
Datacamp: تحسين كود بايثون باستخدام الباندا | ✅ |
Datacamp: استيعاب البيانات المبسطة مع الباندا | ✅ |
Datacamp: تحليل الحملات التسويقية باستخدام الباندا | ✅ |
معسكر البيانات: تحليل نشاط الشرطة مع الباندا | ✅ |
الموارد | تقدم |
---|---|
المقال: الأجزاء الداخلية لـ PyTorch | ⬜ |
مقال: أخذ PyTorch كأمر مسلم به | ⬜ |
Datacamp: مقدمة للتعلم العميق باستخدام PyTorch | ✅ |
Datacamp: التعلم العميق المتوسط باستخدام PyTorch | ⬜ |
Datacamp: التعلم العميق للنص باستخدام PyTorch | ⬜ |
Datacamp: التعلم العميق للصور باستخدام PyTorch | ⬜ |
Deeplizard: برمجة الشبكات العصبية - التعلم العميق باستخدام PyTorch | ✅ |
الموارد | تقدم |
---|---|
Codecademy: تعلم ReactJS: الجزء الأول | ✅ |
Codecademy: تعلم ReactJS: الجزء الثاني | ✅ |
NexxtJS: أسس التفاعل | ⬜ |
الموارد | تقدم |
---|---|
Datacamp: البرمجة اللغوية العصبية المتقدمة مع spaCy | ✅ |
الموارد | تقدم |
---|---|
Datacamp: مقدمة إلى TensorFlow في بايثون | ✅ |
Datacamp: التعلم العميق في بيثون | ✅ |
Datacamp: مقدمة للتعلم العميق مع Keras | ✅ |
Datacamp: التعلم العميق المتقدم مع Keras | ✅ |
Deeplizard: Keras - واجهة برمجة تطبيقات الشبكة العصبية للتعلم العميق من Python | ✅ |
الجرأة: مقدمة إلى TensorFlow للتعلم العميق | ✅ |