Ich habe mal ChatGPT gefragt wie …

Die Redaktion einer Klatschzeitschrift hat ein KI-generiertes Interview mit Michael Schumacher abgedruckt und wird dafür verklagt. Besonders absurd ist dabei die Unterüberschrift „Es klingt täuschend echt“.

Da frage ich mich, wird die KI in Zukunft solche Zeitschriften und z.B. auch Horoskope völlig allein schreiben? Ich meine wenn es einen Bereich gibt, in dem die Halluzinationen und sonstigen KI-Fehler keine Rolle spielen dürften, dann doch wohl dort. :wink:

1 „Gefällt mir“

Natürlich wird die KI Texte für Zeitungen und Zeitschriften schreiben - die Qualität kann dabei in einigen Genres echt nur besser werden. Und auch für den aktuellen Clickbait-„Journalismus“ sind Maschinen sicher besser geeignet als Menschen - vor allem viel billiger. Aber bei so einem Beispiel raufe ich mir immer die Haare: Sollte das jetzt lustig sein oder dachten die, das nimmt jemand ernst? Warum brauchen Menschen eine Maschine, um auch nur ein klitzekleines bisschen kreativ zu sein?

Die TAZ hat schon eine ganze Weile eine KI als Kolumnistin [1] und auch Sascha Lobo hat schon zugegeben mit GPT-Modellen Beiträge zu schreiben und dann zu lektorieren. Auch ein Radiosender läuft schon komplett autonom [2]. Ich warte nur noch darauf, dass bekannt wird, dass Sybille Bergs Spiegel-Kolumne vom Bot kommt. Das würde einiges erklären.

[1] Kolumne einer künstlichen Intelligenz: Die Zukunft gehört den Maschinen - taz.de
[2] Bei RadioGPT kümmert sich ausschließlich KI um Musikauswahl und Nachrichten - Innovationen - derStandard.de › Web

Ich hab BingGPT auch mal was gefragt, das Ergebnis war eher nicht so toll. Bei Logik und Verständnis ist da noch Luft nach oben:

Es gibt einen Gastkommentar beim Handelsblatt über den KI Hype, der recht lesenswert ist:

Warum der heutige KI-Hype überzogen ist - Handelsblatt

Für ein neues Thema ist es zu wenig, daher packe ich es mal hier rein, auch wenn es thematisch nicht 100 % passt.

Irgendwie fühlt sich der KI Hype an wie eine Wiederholung des Blockchain Hypes. Das ist ja noch nicht allzu lange her, und was ist davon heute noch zu hören. Vor wenigen Jahren war plötzlich die „Blockchain“ die Lösung für fast alles. Zumindest wenn man der Wirtschaft und der Politik glauben durfte. Und auch da war gar nicht wirklich klar, was technisch damit gemeint war, genauso wie heute „KI“ als Synonym für LLM (Large Language Model) hergenommen wird.

Man darf gespannt sein, was sich da entwickelt.

Der Unterschied ist, dass die Blockchain-Technologie sehr, sehr spezifisch ist und es nur wenige Fälle gibt, in der sie tatsächlich sinnvoll eingesetzt werden kann (dh. Fälle, in denen man keiner zentralen Instanz wie einem Staat trauen möchte, sonst braucht’s keine Blockchain…).

KI oder auch nur LLMs sind hingegen zweifelsohne Technologien, die unheimlich viele Anwendungsfälle haben und bereits heute die Arbeitswelt massiv beeinflussen. Das kann man einfach nicht verleugnen. Dass Ralf Otte in dem von @Matder geposteten Artikel klar argumentiert, dass die aktuellen LLMs noch weit von menschlicher Intelligenz entfernt sei, hat damit erst mal relativ wenig zu tun. Denn es geht nicht darum, ob KI oder Mensch „allgemein intelligenter“ sind, sondern es geht darum, ob es Bereiche gibt, in denen eine KI auf einem mittelprächtigen Rechner mehr zu leisten im Stande ist als ein hoch-ausgebildeter Mensch. Und das ist zweifelsfrei aktuell der Fall, denn diese Bereiche existieren (eigentlich alles, was mit „Big Data“ zu tun hat…)

Daher sehe ich bei der KI keinen „Hype“ im Sinne der Blockchain, sondern eher einen Hype wie damals, als das Internet sich langsam durchgesetzt hat. Auch da gab es viele Menschen, die meinten, das Internet würde alle Lebensprobleme lösen können, während viele andere sagten, es sei nur ein Trend, der bald zum Erliegen käme. Das Internet ist geblieben und immer besser geworden, und so wird es wohl auch mit der KI laufen, wenn man die Entwicklung nicht mutwillig einfriert (was vermutlich nicht mal gelingen würde!)