Google nennt seinen KI-betriebenen Chatbot „Bard“, er soll ChatGPT Konkurrenz machen. Foto: dpa/Arne Dedert

Der ChatGPT-Konkurrent von Google ist nun auch in Deutschland verfügbar. Im Praxistest zeigt sich, wie gut das Modell im Vergleich abschneidet.

Texte von einer Künstlichen Intelligenz schreiben zu lassen – dafür war bisher vor allem das Programm ChatGPT bekannt. Mit Google hat in der vergangenen Woche einer der größten Konkurrenten seine Alternative für Nutzerinnen und Nutzer aus Deutschland freigeschaltet: einen Chatbot namens Bard. In den USA bereits im März gestartet, kam Bard wegen Datenschutzbedenken aber erst verzögert in die EU. Google forscht schon lange an KI-Sprachmodellen, wurde aber vom Erfolg von ChatGPT in den vergangenen Monaten unter Zugzwang gesetzt. Das sorgt für neue Konkurrenz unter den Techkonzernen: Microsoft hat Milliarden in den ChatGPT-Hersteller Open AI investiert und sucht nach neuen Marktanteilen bei KI und Internetsuche.

Wie lässt sich Bard nutzen?

Über die Webseite bard.google.com können angemeldete Nutzerinnen und Nutzer den Chatbot erreichen und – genau wie bei ChatGPT und Bing – ihre Fragen und Aufforderungen in ein Textfeld eingeben. Zurück kommt eine Antwort, die das Sprachmodell anhand der Eingabe erzeugt, wobei Bard drei Antwortvorschläge einblenden kann. Damit soll das Modell im Dialog mit den Nutzenden von Gedichten über Briefe bis hin zu Zusammenfassungen alle möglichen Texte schreiben und Ideen liefern können, und zwar mit Zugang zu Informationen aus dem Internet. Damit ähnelt Bard eher dem Chatbot Bing von Microsoft als ChatGPT – während Bing die Text-KI mit einer Suchmaschine verbindet, greift ChatGPT in der Basisversion nicht auf das Netz zu. Dazu kommen soll künftig die Möglichkeit, Bilder und Text gemeinsam einzugeben sowie Tonfall und Stil der Antworten zu beeinflussen.

Wie gut funktioniert das?

Google nennt Bard ausdrücklich ein „Experiment“ und weist darauf hin, dass es „möglicherweise fehlerhafte oder anstößige Informationen“ anzeigen könne. Im Praxistest zeigt sich: Die Antworten klingen zwar meist überzeugend, das Thema der Frage erkennt Bard zuverlässig. Einen längeren Text zusammenfassen? Klappt ordentlich. Doch wer nach Informationen fragt, etwas über Personen oder aktuelle Nachrichten wissen will, stößt schnell auf Antworten, die nur zum Teil stimmen – obwohl das Modell angibt, dafür im Netz zu suchen.

Falsche Fakten, Logiklücken oder veraltete Nachrichten generiert Bard genauso wie frei erfundene Personen oder falsche Lebensläufe – nicht nur bei unbekannten Personen. Im Test verwickelte Bard sich bei einem journalistischen Kommentar zur Elterngelddebatte in Widersprüche oder erfand ganze Programmierbibliotheken. Während Konkurrent Bing seine Quellen verlinkt, gibt Bard sie nicht immer an – und gibt sie teils nicht einmal auf Nachfrage preis.

Wer ist intelligenter – ChatGPT oder Bard?

Sowohl ChatGPT und Bing als auch Bard sind nicht allwissend, sondern darauf trainiert, nach Wahrscheinlichkeiten Texte zu erzeugen, die wie überzeugende Antworten klingen. Im menschlichen Sinne „intelligent“ sind sie deshalb nicht – und inwieweit sie Zusammenhänge tatsächlich verstehen können, ist unter Fachleuten umstritten. Inhaltlich falsch liegen auch ChatGPT und Bing immer wieder. Das, was die Modelle schreiben, wirkt eloquent, beweist aber weder Bewusstsein noch ein Gespür für die reale Welt oder die Wahrheit. Die Hersteller weisen darauf hin, dass man solchen Sprachmodellen nicht blind vertrauen sollte.