Was Sie über KI-Chatbots wissen sollten (Teil 2)

Der Aufstieg der KI-Chatbots ist so rasant, dass es schwierig ist, mitzuhalten. Seit der Teil 1 dieses Beitrags geschrieben wurde, hat OpenAI bereits eine brandneue Version von ChatGPT veröffentlich. GPT-4 bietet beeindruckende Fähigkeiten wie das Bestehen von standardisierten Tests, das Analysieren von Bildern und das Schreiben von Code in allen wichtigen Programmierungssprachen.

Während sich Unternehmen darum bemühen, ihre vorherigen Kreationen zu übertreffen, ist es ein guter Moment, um eine Pause zu machen und zu beurteilen, ob diese Chatbots wirklich „neu und verbessert“ sind. Hier beurteilen wir sowohl die Versprechen als auch die Gefahren der KI-Chatbot-Technologie für die Übersetzungsbranche.

Die Vorteile der KI-Chatbots

Aus einer Geschäftsperspektive scheint KI beeindruckende neue Möglichkeiten zu eröffnen, um Kosten und Bearbeitungszeiten zu reduzieren. Es könnten ausgeklügelte Chatbots verwendet werden, um zum Beispiel den Kundendienst und das Kundenengagement zu verbessern, Videoskripts und Produktbeschreibungen zu schreiben oder bei der Beseitigung von Fehlern bei Code zu unterstützen. Sie können dabei helfen, mehrsprachigen Inhalt in zahlreichen Formaten schneller und für weniger Geld zu produzieren.

Was die Übersetzung betrifft, können einzelne Übersetzer Chatbots als Übersetzungshilfe verwenden. Kleinunternehmen mit knappem Budget könnten es besonders verlockend finden, Chatbots für sprachbezogene Aufgaben zu verwenden. Und wenn ein Unternehmen zum Beispiel einen besseren Echtzeit-Kundendienst in hundert Sprachen anbieten möchte, ohne hundert verschiedene IT-Teams weltweit beauftragen zu wollen, könnte ein Chatbot die Antwort sein.

 Die Gefahren der KI-Chatbots

Aber übertreffen diese Vorteile auch die Tücken? Was die Übersetzungsbranche betrifft, sind hier die drei Hauptprobleme im Zusammenhang mit KI-Chatbots aufgeführt.

Gefährlicher Inhalt und Ungenauigkeit

KI-Chatbots sind nur so gut wie die Daten, mit denen sie trainiert wurden. Leider sind Datensätze grundsätzlich voller Verzerrung. Tests haben Inhalt erzeugt, der von peinlich ungenau bis absolut verstörend reicht, wie Chatbots, die die Benutzer bedrohen oder die Hassrede unterstützen. Entwickler haben anerkannt, dass KI manchmal Tatsachen „halluzinieren“ kann, die nicht war sind, welche Chatbots aber mit völliger Zuversicht präsentieren werden.

OpenAI versucht, einige dieser Probleme mit GPT-4 zu beheben, welcher als weniger fehlbar als sein Vorgänger angesehen wird. Es gibt jedoch keinen Chatbot mit null Risiko für Beleidigungen. Da sie nicht die kulturelle und sprachliche Empfindlichkeit von echten Menschen haben, sind KI-Chatbors schlecht dafür ausgerüstet, risikoreiche Übersetzungen zu handhaben, darunter diejenigen für Krankenhäuser, Gerichtssäle, internationale Politik und vieles mehr.

Ethische Dilemmas

Des Weiteren ist die Ethik von KI-generiertem Inhalt nicht gut definiert, weshalb man vorsichtig sein muss, bevor man auf den Zug aufspringt.

Universitäten haben zum Beispiel über den Gebrauch von Chatbots alarmiert, um Aufsätze und sonstige Hausaufgaben zu schreiben, was zu Plagiatsvorwürfen führte. KI-Chatbots haben auch eine schlechte Beziehung zur Arbeiterschaft, da die Angst verbreitet wird, dass KI große Stellenkürzungen ermöglichen, und es wird weiterhin auf die niedrigen Gehälter hingewiesen, die ausgebeuteten Arbeitern oft bezahlt werden, um KIs überhaupt zu „trainieren“. Und hier sind wir noch nicht einmal bei dem potentiellen Einfluss der energiefressenden KI-Modelle auf den CO2-Ausstoß angekommen, in einer Zeit, in der immer mehr Unternehmen Nachhaltigkeit priorisieren.

Und was noch schlimmer ist, ChatGPT hat die Türen weit geöffnet für Übeltäter, die den Chatbot zur Generierung von Malware, Abstimmung von Phishing-E-Mails und Verbreitung von Fake News verwenden. Auch wenn Unternehmen daran arbeiten, den Missbrauch ihrer Plattformen zu blockieren, arbeiten Hacker genauso schnell, um Schwachstellen bei diesen Schutzmaßnahmen zu finden. Im Zusammenhang mit diesem ethischen Minenfeld sollten Übersetzer sehr achtsam sein, bevor sie sich auf die KI-Chatbots verlassen, ohne eine strenge Qualitätsprüfung durch Experten.

Sicherheit und Datenschutz

Tatsächlich ist der Mangel an Sicherheit eines Chatbots ein Hauptproblem für die Übersetzungsbranche. Es besteht keine Garantie, dass der Inhalt, mit dem Sie einen KI-Chatbot füttern, vor dem Zugriff durch Dritte geschützt ist. In der Tat wird sämtliche Dateneingabe vom Chatbot „abgeschabt“ und verwendet, um seine Daten zu verbessern, ohne die Möglichkeit einer Verweigerung. Die Datensätze von KI-Chatbots bestehen aus Tausenden Wörtern, die ohne Einwilligung der ursprünglichen Inhaber aus dem Internet gezogen wurden.

Für Übersetzer, die mit vertraulichem Material und geistigem Eigentum arbeiten, bedeutet dies ein erhebliches Problem. Kombiniert mit Bedenken über die OpenAI-Benutzerdatenschutzrichtlinie und der gemeinsamen Datennutzung, ist es aktuell nicht klar, ob ChatGPT und GPT-4 die europäische Datenschutz-Grundverordnung (DSGVO) einhalten. Eine Nichteinhaltung würde ein großes Hindernis für Unternehmen sein, die in Europa Geschäfte tätigen.

 Werden KI-Chatbots menschliche Übersetzer ersetzen?

Können wir, wenn wir uns die Frage stellen, ob KI-Chatbors menschliche Übersetzer ersetzen werden, diese höchstwahrscheinlich mit nein beantworten…für den Moment? Man muss beachten, dass Bots eine umfangreiche menschliche Dateneingabe und Training benötigen, um überhaupt nützlich zu sein. Anders als Menschen, die sich im Moment anpassen können, flexibel sind, Humor verstehen und kulturelle Flüssigkeit bei Übersetzungen anwenden.

Stattdessen ist das wahre Versprechen der generativen KI die Schaffung einer höheren Nachfrage für die Postedition von machinellen Übersetzungen durch menschliche Lektoren. Wenn Unternehmen Chatbots verwenden, um mehr und mehr Inhalt zu produzieren, sind professionelle Übersetzer ein Muss, um diesen Inhalt aufzupolieren.

Bild von Alexandra_Koch von Pixabay