هذا هو عميل Python لـ NLP Cloud API. راجع الوثائق لمزيد من التفاصيل.
تقدم NLP Cloud نماذج عالية الأداء مدربة مسبقًا أو مخصصة لـ NER، وتحليل المشاعر، والتصنيف، والتلخيص، وتلخيص الحوار، وإعادة الصياغة، وتصنيف الأغراض، ووصف المنتج وإنشاء الإعلانات، وروبوت الدردشة، والتصحيح النحوي والإملائي، واستخراج الكلمات الرئيسية والعبارات الرئيسية، وإنشاء النص. ، وإنشاء الصور، وإنشاء كود المصدر، والإجابة على الأسئلة، والتعرف التلقائي على الكلام، والترجمة الآلية، واكتشاف اللغة، والبحث الدلالي، والتشابه الدلالي، والترميز، ووضع علامات على نقاط البيع، والتضمين، و تحليل التبعية. إنه جاهز للإنتاج، ويتم تقديمه من خلال REST API.
يمكنك إما استخدام نماذج NLP Cloud المدربة مسبقًا، أو ضبط النماذج الخاصة بك، أو نشر النماذج الخاصة بك.
إذا واجهت مشكلة، فلا تتردد في طرحها كمشكلة على Github. شكرًا!
التثبيت عبر النقطة.
pip install nlpcloud
فيما يلي مثال كامل يلخص نصًا باستخدام نموذج Bart Large CNN الخاص بفيسبوك، مع رمز مزيف:
import nlpcloud
client = nlpcloud . Client ( "bart-large-cnn" , "4eC39HqLyjWDarjtT1zdp7dc" )
client . summarization ( """One month after the United States began what has become a
troubled rollout of a national COVID vaccination campaign, the effort is finally
gathering real steam. Close to a million doses -- over 951,000, to be more exact --
made their way into the arms of Americans in the past 24 hours, the U.S. Centers
for Disease Control and Prevention reported Wednesday. That s the largest number
of shots given in one day since the rollout began and a big jump from the
previous day, when just under 340,000 doses were given, CBS News reported.
That number is likely to jump quickly after the federal government on Tuesday
gave states the OK to vaccinate anyone over 65 and said it would release all
the doses of vaccine it has available for distribution. Meanwhile, a number
of states have now opened mass vaccination sites in an effort to get larger
numbers of people inoculated, CBS News reported.""" )
فيما يلي مثال كامل يفعل نفس الشيء، ولكن على وحدة معالجة الرسومات:
import nlpcloud
client = nlpcloud . Client ( "bart-large-cnn" , "4eC39HqLyjWDarjtT1zdp7dc" , True )
client . summarization ( """One month after the United States began what has become a
troubled rollout of a national COVID vaccination campaign, the effort is finally
gathering real steam. Close to a million doses -- over 951,000, to be more exact --
made their way into the arms of Americans in the past 24 hours, the U.S. Centers
for Disease Control and Prevention reported Wednesday. That s the largest number
of shots given in one day since the rollout began and a big jump from the
previous day, when just under 340,000 doses were given, CBS News reported.
That number is likely to jump quickly after the federal government on Tuesday
gave states the OK to vaccinate anyone over 65 and said it would release all
the doses of vaccine it has available for distribution. Meanwhile, a number
of states have now opened mass vaccination sites in an effort to get larger
numbers of people inoculated, CBS News reported.""" )
فيما يلي مثال كامل يفعل نفس الشيء، ولكن بنص فرنسي:
import nlpcloud
client = nlpcloud . Client ( "bart-large-cnn" , "4eC39HqLyjWDarjtT1zdp7dc" , True , "fra_Latn" )
client . summarization ( """Sur des images aériennes, prises la veille par un vol de surveillance
de la Nouvelle-Zélande, la côte d’une île est bordée d’arbres passés du vert
au gris sous l’effet des retombées volcaniques. On y voit aussi des immeubles
endommagés côtoyer des bâtiments intacts. « D’après le peu d’informations
dont nous disposons, l’échelle de la dévastation pourrait être immense,
spécialement pour les îles les plus isolées », avait déclaré plus tôt
Katie Greenwood, de la Fédération internationale des sociétés de la Croix-Rouge.
Selon l’Organisation mondiale de la santé (OMS), une centaine de maisons ont
été endommagées, dont cinquante ont été détruites sur l’île principale de
Tonga, Tongatapu. La police locale, citée par les autorités néo-zélandaises,
a également fait état de deux morts, dont une Britannique âgée de 50 ans,
Angela Glover, emportée par le tsunami après avoir essayé de sauver les chiens
de son refuge, selon sa famille.""" )
يتم إرجاع كائن json:
{
"summary_text" : " Over 951,000 doses were given in the past 24 hours. That's the largest number of shots given in one day since the rollout began. That number is likely to jump quickly after the federal government gave states the OK to vaccinate anyone over 65. A number of states have now opened mass vaccination sites. "
}
قم بتمرير النموذج الذي تريد استخدامه ورمز NLP Cloud المميز إلى العميل أثناء التهيئة.
يمكن أن يكون النموذج إما نموذجًا تم تدريبه مسبقًا مثل en_core_web_lg
أو bart-large-mnli
... ولكن أيضًا أحد نماذجك المخصصة، باستخدام custom_model/
(على سبيل المثال custom_model/2568
). راجع الوثائق للحصول على قائمة شاملة بجميع النماذج المتاحة.
يمكن استرداد الرمز المميز الخاص بك من لوحة معلومات NLP Cloud الخاصة بك.
import nlpcloud client = nlpcloud . Client ( "" , "" )
إذا كنت تريد استخدام GPU، قم بتمرير gpu=True
.
import nlpcloud client = nlpcloud . Client ( "" , "" , gpu = True )
إذا كنت تريد استخدام الوظيفة الإضافية متعددة اللغات لمعالجة النصوص غير الإنجليزية، فقم بتمرير lang="
. على سبيل المثال، إذا كنت تريد معالجة النص الفرنسي، فيجب عليك تعيين lang="fra_Latn"
.
import nlpcloud client = nlpcloud . Client ( "" , "" , lang = "" )
إذا كنت ترغب في تقديم طلبات غير متزامنة، فقم بتمرير asynchronous=True
.
import nlpcloud client = nlpcloud . Client ( "" , "" , asynchronous = True )
إذا كنت تقدم طلبات غير متزامنة، فستتلقى دائمًا استجابة سريعة تحتوي على عنوان URL. يجب عليك بعد ذلك استطلاع عنوان URL هذا باستخدام async_result()
بشكل منتظم (كل 10 ثوانٍ على سبيل المثال) للتحقق من توفر النتيجة. هنا مثال:
client . async_result ( "https://api.nlpcloud.io/v1/get-async-result/21718218-42e8-4be9-a67f-b7e18e03b436" )
يقوم الأمر أعلاه بإرجاع كائن JSON عندما تكون الاستجابة جاهزة. تقوم بإرجاع None
خلاف ذلك.
اتصل بالطريقة asr()
وقم بتمرير الوسيطات التالية:
url
: عنوان URL حيث يتم استضافة ملف الصوت أو الفيديو الخاص بكencoded_file
: نسخة مشفرة بقاعدة 64 من ملفكinput_language
: لغة ملفك كرمز ISO client . asr ( "Your url" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة chatbot()
وقم بتمرير إدخالك. كخيار، يمكنك أيضًا تمرير سياق ومحفوظات المحادثات التي تمثل قائمة من القواميس. يتكون كل قاموس من input
response
من برنامج الدردشة الآلي.
client . chatbot ( "Your input" , "You context" , [{ "input" : "input 1" , "response" : "response 1" }, { "input" : "input 2" , "response" : "response 2" }, ...])
يقوم الأمر أعلاه بإرجاع كائن JSON.
استدعاء طريقة classification()
وتمرير الوسائط التالية:
multi_class
: ما إذا كان التصنيف يجب أن يكون متعدد الفئات أم لا، باعتباره منطقيًا. الافتراضيات إلى صحيح. client . classification ( "" , [ "label 1" , "label 2" , "..." ])
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة code_generation()
وقم بتمرير التعليمات الخاصة بالبرنامج الذي تريد إنشاءه:
client . code_generation ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة dependencies()
وقم بتمرير النص الذي تريد تنفيذ جزء من وضع علامات الكلام (POS) + الأقواس عليه.
client . dependencies ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة embeddings()
وقم بتمرير قائمة الكتل النصية التي تريد استخراج التضمينات منها.
client . embeddings ([ "" , "" , "" , ...])
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة entities()
وقم بتمرير النص الذي تريد إجراء التعرف على الكيان المسمى (NER) عليه.
client . entities ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة generation()
وقم بتمرير الوسيطات التالية:
max_length
: اختياري. الحد الأقصى لعدد الرموز المميزة التي يجب أن يحتوي عليها النص الذي تم إنشاؤه. 256 رمزًا كحد أقصى لـ GPT-J على وحدة المعالجة المركزية، و1024 رمزًا كحد أقصى لـ GPT-J وGPT-NeoX 20B على وحدة معالجة الرسومات، و2048 رمزًا كحد أقصى لـ Fast GPT-J وFinetuned GPT-NeoX 20B على وحدة معالجة الرسومات. إذا كانت length_no_input
خاطئة، فإن حجم النص الذي تم إنشاؤه هو الفرق بين max_length
وطول نص الإدخال. إذا كان length_no_input
صحيحًا، فإن حجم النص الذي تم إنشاؤه هو ببساطة max_length
. الافتراضي إلى 50.length_no_input
: ما إذا كان min_length
و max_length
لا ينبغي أن يتضمنا طول نص الإدخال، كقيمة منطقية. إذا كانت القيمة false، فإن min_length
و max_length
يتضمنان طول النص المُدخل. إذا كان صحيحًا، فإن min_length و max_length
لا يتضمنان طول النص المُدخل. الافتراضيات كاذبة.end_sequence
: رمز محدد يجب أن يكون نهاية التسلسل الذي تم إنشاؤه، كسلسلة. على سبيل المثال إذا كان يمكن أن يكون .
أو n
أو ###
أو أي شيء آخر أقل من 10 أحرف.remove_input
: ما إذا كنت تريد إزالة نص الإدخال من النتيجة، كقيمة منطقية. الافتراضيات كاذبة.num_beams
: عدد الحزم للبحث عن الشعاع. 1 يعني عدم وجود بحث شعاع. هذا عدد صحيح. الإعدادات الافتراضية إلى 1.num_return_sequences
: عدد التسلسلات المرتجعة المحسوبة بشكل مستقل لكل عنصر في الدفعة، كعدد صحيح. الإعدادات الافتراضية إلى 1.top_k
: عدد الرموز المميزة للمفردات ذات الاحتمالية الأعلى التي يجب الاحتفاظ بها لتصفية top-k، كعدد صحيح. الحد الأقصى 1000 رمز. الإعدادات الافتراضية إلى 0.top_p
: إذا تم ضبطه على قيمة تعويم < 1، فسيتم الاحتفاظ فقط بالرموز المميزة ذات الاحتمالات التي تضيف ما يصل إلى top_p أو أعلى للإنشاء. هذا هو تعويم. يجب أن يكون بين 0 و1. القيمة الافتراضية هي 0.7.temperature
: القيمة المستخدمة لوحدة احتمالات الرمز المميز التالي، كتعويم. يجب أن يكون بين 0 و1. الإعدادات الافتراضية هي 1.repetition_penalty
: معامل عقوبة التكرار، على شكل عائم. 1.0 يعني عدم وجود عقوبة. الإعدادات الافتراضية إلى 1.0.bad_words
: قائمة الرموز المميزة التي لا يُسمح بإنشائها، كقائمة من السلاسل. الإعدادات الافتراضية إلى فارغة.remove_end_sequence
: اختياري. ما إذا كنت تريد إزالة سلسلة end_sequence
من النتيجة. الافتراضيات كاذبة. client . generation ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة gs_correction()
وقم بتمرير النص الذي تريد تصحيحه:
client . gs_correction ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة image_generation()
وقم بتمرير التعليمات النصية للصورة الجديدة التي تريد إنشاءها:
client . image_generation ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
قم باستدعاء طريقة intent_classification()
وقم بتمرير النص الذي تريد استخراج النوايا منه:
client . intent_classification ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة kw_kp_extraction()
وقم بتمرير النص الذي تريد استخراج الكلمات الرئيسية والعبارات الرئيسية منه:
client . kw_kp_extraction ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة langdetection()
وقم بتمرير النص الذي تريد تحليله لاكتشاف اللغات.
client . langdetection ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
قم باستدعاء طريقة paraphrasing()
وتمرير النص الذي تريد إعادة صياغته.
client . paraphrasing ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة question()
وقم بتمرير ما يلي:
client . question ( "" , "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة semantic_search()
وقم بتمرير استعلام البحث الخاص بك.
client . semantic_search ( "Your search query" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة semantic_similarity()
وقم بتمرير قائمة مكونة من كتلتين من النص تريد مقارنتهما.
client . semantic_similarity ([ "" , "" ])
يقوم الأمر أعلاه بإرجاع كائن JSON.
قم باستدعاء طريقة sentence_dependencies()
وقم بتمرير كتلة نصية مكونة من عدة جمل تريد تنفيذ نقاط البيع + الأقواس عليها.
client . sentence_dependencies ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة sentiment()
وقم بتمرير ما يلي:
client . sentiment ( "" , "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة speech_synthesis()
وقم بتمرير النص الذي تريد تحويله إلى صوت:
client . speech_synthesis ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة summarization()
وقم بتمرير النص الذي تريد تلخيصه.
client . summarization ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بالطريقة tokens()
وقم بتمرير النص الذي تريد ترميزه.
client . tokens ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.
اتصل بطريقة translation()
وقم بتمرير النص الذي تريد ترجمته.
client . translation ( "" )
يقوم الأمر أعلاه بإرجاع كائن JSON.