In jüngster Zeit haben Forscher der Microsoft Research und der Carnegie Mellon University zusammengearbeitet, um eine Umfrage zur Verwendung generativer KI durch Wissensarbeiter wie Copilot und Chatgpt zu veröffentlichen. In der Studie wurde eine Umfrage unter 319 Wissensarbeitern durchgeführt, die jede Woche generative KI verwendeten und die Auswirkungen der generativen KI auf die kritischen Denkfähigkeiten der Benutzer eingehend untersuchten und einige dieser besorgniserregenden Phänomene enthüllten. Die Forschungsergebnisse zeigen, dass es eine heikle Balance zwischen der Bequemlichkeit von KI-Tools und der kritischen Denkfähigkeit von Benutzern gibt.
Kürzlich haben die Forscher von Microsoft Research und Carnegie Mellon University eine neue Studie veröffentlicht, in der potenzielle Probleme für Wissensarbeiter bei der Verwendung generativer künstlicher Intelligenz wie C -Opilot und ChatGPT aufdeckt. Das Forschungsteam untersuchte seine kritischen Denkanwendungen, als diese Tools verwendet wurden, indem sie 319 Wissensarbeiter, die jede Woche generative KI verwenden, untersuchten.
Die Forschungsergebnisse zeigen, dass Arbeitnehmer, die in der Aufgabe zuversichtlich sind, dazu neigen, kritisch über die Ausgabe von generativer KI nachzudenken. Für diejenigen, die sich in der Aufgabe nicht vertrauen, sind sie jedoch der Meinung, dass die generative KI -Antwort ausreicht und daher kein weiterer Gedanke ist. Dieses Phänomen hat die Aufmerksamkeit von Forschern auf sich gezogen, die feststellten, dass eine übermäßige Abhängigkeit von KI -Tools zu einem Rückgang der Fähigkeiten zum kritischen Denken führen kann.
In der Studie wurde erwähnt, dass „Vertrauen in die KI mit der Verringerung des kritischen Denkens zusammenhängt, während das Selbstvertrauen mit einem verbesserten kritischen Denken zusammenhängt.“ Die Forscher schlagen vor, dass KI-Tools Mechanismen enthalten sollten, die die Entwicklung langfristiger Fähigkeiten unterstützen, und die Benutzer dazu ermutigen, reflektierend zu denken, wenn sie mit der von AI erzeugten Ausgabe interagieren.
Gleichzeitig erwähnten die Forscher, dass es nicht ausreicht, nur zu erklären, wie KI Schlussfolgerungen zieht. Sie betonen, dass Wissensarbeiter in ihrer täglichen Arbeit kritisches Denken verwenden sollten, um die Ausgabe von KI zu überprüfen und eine übermäßige Abhängigkeit von KI zu vermeiden.
Die Schlussfolgerungen der Studie betonen, dass KI, die sich allmählich in unsere Arbeitswelt integrieren, Wissensarbeiter eine bestimmte Fähigkeit zu grundlegenden Fähigkeiten in der Informationssammlung und der Problemlösung aufrechterhalten müssen, um eine übermäßige Abhängigkeit von KI zu verhindern. Sie sollten geschult werden, um Fähigkeiten wie Informationsüberprüfung, Integration und Aufgabenmanagement zu entwickeln.
Das Papier für die Studie wird auf der Konferenz der Human-Computer-Interaktion 2025 veröffentlicht, die das Forschungsteam hofft, auf die Auswirkungen der generativen KI weit verbreitet zu machen.
Schlüsselpunkte:
Untersuchungen zeigen, dass das Vertrauen in die generative KI zu einer Verringerung der kritischen Denkfähigkeiten bei Wissensarbeitern führen kann.
Selbstvertrauen ist proportional zum kritischen Denken, und das Design von Unternehmens-KI-Tools muss auf diesen Restbetrag achten.
Wissensangestellte sollten geschult werden, um grundlegende Informationssammlungen und Problemlösungsfähigkeiten aufrechtzuerhalten, um eine übermäßige Abhängigkeit von KI zu vermeiden.
Diese Forschung ist von großer Leitung von Bedeutung, wie KI -Tools in der KI -Ära effektiv eingesetzt werden können und gleichzeitig die eigenen kritischen Denkfähigkeiten aufrechterhalten und verbessert. In Zukunft sollten wir in der Gestaltung und Anwendung von KI -Tools mehr darauf achten, das kritische Denken des Benutzer zu kultivieren und die negativen Auswirkungen einer übermäßigen Abhängigkeit zu vermeiden.