Bienvenido a Page of Turkish Spacy Models. Puede encontrar todos los modelos bajo nuestro repositorio de Huggingface. Este repositorio contiene archivos de configuración para
Todas las tuberías contienen un tokenizador, lemmatizador capacitable, etiqueta POS, analizador de dependencia, morfologizador y componentes NER.
tr_core_web_lg
es un modelo de gran tamaño basado en CNN, que ofrece una buena precisión y funciona a una velocidad decente. Este modelo incluye todos los componentes anteriores y está empaquetado con vectores de palabras de flor de gran tamaño.
De manera similar, tr_core_web_md
es un modelo de tamaño medio basado en CNN, que logra una precisión decente y podría ser una buena opción para aplicaciones de velocidad crítica. y está empaquetado con vectores de palabras florete de tamaño mediano.
tr_core_web_trf
es una tubería basada en TranFormer. Ofrece una gran precisión, si tiene buenos recursos informáticos, este es su modelo de elección (incluso mejor algunas GPU).
Puede descargar todos los modelos de Huggingface:
pip install https://huggingface.co/turkish-nlp-suite/tr_core_news_trf/resolve/main/tr_core_news_trf-any-py3-none-any.whl
pip install https://huggingface.co/turkish-nlp-suite/tr_core_news_lg/resolve/main/tr_core_news_lg-any-py3-none-any.whl
pip install https://huggingface.co/turkish-nlp-suite/tr_core_news_md/resolve/main/tr_core_news_md-any-py3-none-any.whl
Después de instalar los modelos a través de PIP, puede usar directamente cargando en Spacy:
import spacy
nlp = spacy.load("tr_core_news_trf")
doc = nlp("Dün ben de gittim.")
La documentación está disponible en nuestro sitio web: [TODO]
Visite mi canal para obtener dos listas de reproducción Hızlı Spacy Türkçe Tarifleri y Spacy Modeli Nasıl Yapılır?. Encontrará recetas rápidas con Spacy Turkish en la primera lista de reproducción y la segunda lista de reproducción da detalles sobre cómo entrenar y empaquetar un modelo para un nuevo idioma.
Este trabajo es compatible con el Programa de Expertos de Desarrolladores de Google. Parte de la colección Duygu 2022 Fall-Winter, "Turkish NLP con Duygu"/ "Duygu'yla Türkçe NLP". Reservados todos los derechos. Si desea utilizar los modelos en su propio trabajo, por favor cita el documento un conjunto diverso de recursos lingüísticos disponibles gratuitamente para turco:
@inproceedings{altinok-2023-diverse,
title = "A Diverse Set of Freely Available Linguistic Resources for {T}urkish",
author = "Altinok, Duygu",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.768",
pages = "13739--13750",
abstract = "This study presents a diverse set of freely available linguistic resources for Turkish natural language processing, including corpora, pretrained models and education material. Although Turkish is spoken by a sizeable population of over 80 million people, Turkish linguistic resources for natural language processing remain scarce. In this study, we provide corpora to allow practitioners to build their own applications and pretrained models that would assist industry researchers in creating quick prototypes. The provided corpora include named entity recognition datasets of diverse genres, including Wikipedia articles and supplement products customer reviews. In addition, crawling e-commerce and movie reviews websites, we compiled several sentiment analysis datasets of different genres. Our linguistic resources for Turkish also include pretrained spaCy language models. To the best of our knowledge, our models are the first spaCy models trained for the Turkish language. Finally, we provide various types of education material, such as video tutorials and code examples, that can support the interested audience on practicing Turkish NLP. The advantages of our linguistic resources are three-fold: they are freely available, they are first of their kind, and they are easy to use in a broad range of implementations. Along with a thorough description of the resource creation process, we also explain the position of our resources in the Turkish NLP world.",
}