Die neue Funktion Grammarly Expert Review hat unter Akademikern Kritik ausgelöst. Forscher sagen, dass das Tool Wissenschaftler ohne deren Zustimmung referenziert und teilweise auch Personen einbezieht, die bereits verstorben sind.

Die Kontroverse begann, nachdem Nutzer bemerkten, dass das System Feedback vorschlug, das von bekannten Wissenschaftlern inspiriert sein soll. Kritiker argumentieren, dass dieser Ansatz ethische Fragen darüber aufwirft, wie künstliche Intelligenz wissenschaftliche Arbeiten nutzt.

Die Debatte verdeutlicht die wachsenden Spannungen zwischen KI-Entwicklung und akademischer Zustimmung.

Neue KI-Funktion bietet expertenähnliches Feedback

Grammarly führte die Funktion Expert Review als Teil seiner Schreibassistenz-Tools ein. Das System bietet Feedback, das von anerkannten Experten aus Bereichen wie Geschichte, Wirtschaft und Journalismus inspiriert ist.

Laut Unternehmen greift die Funktion auf öffentlich zugängliche Texte zurück, um Vorschläge zu generieren. Ziel ist es, Nutzern dabei zu helfen, Klarheit, Argumentationsstruktur und Ton zu verbessern, indem Expertenperspektiven einbezogen werden.

Einige Wissenschaftler glauben jedoch, dass die Funktion den Eindruck erweckt, reale Forscher würden den Text begutachten. In mehreren Fällen schlug das Tool Experten vor, die bereits verstorben sind.

Diese Entdeckung löste sofort Diskussionen in akademischen Kreisen aus.

Wissenschaftler hinterfragen die Nutzung ihrer Arbeiten

Mehrere Forscher äußerten Bedenken, nachdem sie bemerkten, dass die Namen von Kollegen in den Vorschlägen des Systems erschienen. Kritiker vermuten, dass die Funktion auf KI-Modelle zurückgreift, die mit veröffentlichtem wissenschaftlichem Material trainiert wurden.

Historiker und Wissenschaftler argumentieren, dass ihre Arbeit und ihr Ruf nicht ohne Zustimmung verwendet werden sollten. Einige Akademiker bezeichneten die Situation als problematisch, weil sie den Eindruck einer simulierten Expertenautorität erweckt.

Andere warnen davor, dass die Verwendung realer Wissenschaftlernamen eine Zustimmung oder Unterstützung suggerieren könnte. Dadurch könnten Nutzer glauben, die betreffenden Forscher hätten tatsächlich an dem Feedback mitgewirkt.

Das Thema wird besonders sensibel, wenn die genannten Personen bereits verstorben sind.

KI-Personas werfen ethische Fragen auf

Einige Beobachter glauben, dass das System sogenannte Persona-basierte Prompts verwendet, anstatt vollständige digitale Abbilder von Wissenschaftlern zu erstellen. Diese Technik steuert KI-Antworten mithilfe von Informationen über die Ideen oder den Schreibstil einer Person.

Selbst wenn das System keine exakten Modelle realer Personen erstellt, sehen Kritiker weiterhin ethische Probleme. Die Nennung von Wissenschaftlern beim Namen kann Verwirrung über Urheberschaft und Autorität erzeugen.

Akademiker befürchten, dass KI-Tools intellektuellen Einfluss ohne Anerkennung oder Zustimmung nutzen könnten. Diese Sorgen spiegeln breitere Debatten über Eigentum und Repräsentation in KI-Systemen wider.

Die Fragen betreffen nicht nur ein einzelnes Produkt, sondern die gesamte Forschungsgemeinschaft.

Debatte über KI-Trainingsdaten nimmt zu

Die Kritik an der Grammarly-Expert-Review-Funktion spiegelt eine größere Debatte über Trainingsdaten für künstliche Intelligenz wider. Viele Technologieunternehmen nutzen große Datensätze, die öffentlich verfügbare Artikel, Bücher und wissenschaftliche Veröffentlichungen enthalten.

Autoren und Forscher hinterfragen zunehmend, wie ihre Arbeiten in diese Datensätze gelangen. Einige argumentieren, dass Unternehmen von geistiger Arbeit profitieren, ohne angemessene Zustimmung oder Vergütung einzuholen.

Rechtsstreitigkeiten über Trainingspraktiken für KI sind bereits in mehreren Ländern entstanden. Experten erwarten, dass diese Debatten intensiver werden, je stärker KI-Tools in Bildung und Publishing eingesetzt werden.

Die Grammarly-Kontroverse zeigt, wie schnell solche Fragen entstehen können.

Fazit

Die Kritik an Grammarly Expert Review zeigt, wie sensibel akademische Zuschreibungen im Zeitalter der KI geworden sind. Durch die Bezugnahme auf reale Wissenschaftler, darunter auch verstorbene Forscher, hat das Tool Fragen zu Zustimmung und geistigem Eigentum ausgelöst.

Obwohl die Funktion darauf abzielt, Schreiben durch experteninspirierte Vorschläge zu verbessern, warnen Akademiker, dass dieser Ansatz wissenschaftliche Autorität falsch darstellen könnte. Diese Bedenken verdeutlichen die größere Herausforderung, Innovation mit ethischer Verantwortung in Einklang zu bringen.

Da KI-Tools immer häufiger in Forschung und Schreiben eingesetzt werden, werden Unternehmen zunehmend unter Druck geraten, klarzustellen, wie sie akademische Arbeiten und Identitäten verwenden.


0 Kommentare zu „Grammarly-Expertenbewertung löst Kritik aus, nachdem verstorbene Wissenschaftler zitiert wurden“