Das Suchalgorithmus-Team von Xiaohongshu veröffentlichte auf der AAAI2024-Konferenz eine bahnbrechende Forschungsarbeit mit dem Ziel, die Probleme von Black-Box-Attributen und riesigen Parametermengen großer Sprachmodelle bei Inferenzaufgaben zu lösen. Das Team schlug auf innovative Weise ein neues Framework vor, das die Argumentationsfähigkeiten großer Sprachmodelle effektiv verbessert, indem es negatives Stichprobenwissen geschickt nutzt. Dieses Framework umfasst zwei Schlüsselschritte: Negative Assisted Training (NAT) und Negative Calibration Enhancement (NCE), die die Anwendungsleistung großer Sprachmodelle erheblich verbessert und neue Forschungsrichtungen und Ideen für die Branche bereitgestellt haben, die Aufmerksamkeit verdienen.
Der Artikel konzentriert sich auf:
Das Suchalgorithmus-Team von Xiaohongshu stellte auf der AAAI2024 ein innovatives Framework vor, das darauf abzielt, die Probleme von Black-Box-Attributen und riesigen Parametermengen großer Sprachmodelle bei Inferenzaufgaben zu lösen. Dieses Framework konzentriert sich auf die Verwendung von negativem Beispielwissen, um die Argumentationsfähigkeiten großer Sprachmodelle zu verbessern, und schlägt Serialisierungsschritte wie Negative Assisted Training (NAT) und Negative Calibration Enhancement (NCE) vor, die neue Ideen für die Anwendungsleistung großer Sprachmodelle liefern .Diese Forschung des Xiaohongshu-Teams bietet eine neue Richtung zur Lösung des Problems der Inferenz großer Sprachmodelle. Die von ihm vorgeschlagene Strategie zur Wissensnutzung bei negativen Stichproben und die NAT- und NCE-Methoden verdienen eine eingehendere Untersuchung und Anwendung. Dies stellt einen wichtigen Fortschritt bei der Verbesserung der Argumentationsfähigkeiten großer Sprachmodelle dar und dürfte in Zukunft die Anwendung großer Sprachmodelle bei komplexeren Aufgaben fördern.