Das ist eher ein positiver Aspekt bei der Sache.
Früher hat der Programmierer mit Templates und der Texter mit Textbausteinen gearbeitet, heute kann eine KI diesen lästigen Teil der Arbeit erledigen. Was spricht dagegen?
Auch hier sehe ich wenig Probleme, aber ich bin auch grundsätzlich kein Freund von zu starkem Urheberrecht. Klar, Künstler sollen von ihrer Arbeit leben können, aber das Vervielfältigen von Kunst zwecks maximaler Verfügbarkeit ist grundsätzlich etwas, das ich eher positiv sehe.
Und wenn ein großer Teil der nicht wirklich kreativen Werbetexter, Illustratoren und Concept-Artists durch eine KI ersetzt werden können ist das gesamtgesellschaftlich etwas positives, wie bei jeder Arbeitstätigkeit, die durch eine Maschine erledigt werden kann. Sorry, aber dieses Festhalten an obsolet gewordener, weil vollständig automatisierbarer, Arbeit ist einfach rückwärtsgewandt.
Eine KI wird niemals das Maß an Kreativität haben, das ein Mensch hat, eben weil sie nur gelerntes neu kombinieren kann. Klar, der Großteil der Künstler macht auch nichts anderes (besonders deutlich wird das bei Musik), aber hin und wieder schafft ein Künstler auch etwas, was fernab der ausgetretenen Pfade liegt. Und wenn eine KI das auch irgendwann kann - super!
Rechtsprechung dürfte noch ziemlich schwer sein, da die dort getätigten Abwägungen unheimlich kompliziert und kaum universell quantifizierbar sind.
Wie gesagt, es ist nicht zwangsläufig Blindheit und Naivität, sondern eventuell auch einfach eine begrüßende Haltung gegenüber der Utopie, die es uns erlaubt, dass möglichst wenig Arbeit nötig ist, um einen möglichst großen gesellschaftlichen Lebensstandard zu erzeugen. Das ist letztlich das Ziel hinter jeder Automatisierung.
Was das Thema „ChatGPT macht die Hausaufgaben“ angeht muss ich sagen, dass ich ChatGPT hier tatsächlich nur als Werkzeug sehe. Als die ersten Computer Rechtschreibkorrekturen bekommen haben gab es auch einen Aufschrei, weil plötzlich die Rechtschreibung, die immer ein Bewertungskriterium war, jetzt weitestgehend vom Computer korrigiert wurde. Ist halt so!
Wer z.B. ChatGPT nutzt, um sich eine Zusammenfassung eines Buchs oder Forschungsstandes zu erstellen und dann da noch mal drüber liest und fragwürdige Stellen ausbessert - why not? Dann müssen wir halt lernen, Leistung anders zu prüfen, wenn es uns nicht gefällt, dass das automatisiert werden kann.
Das ist natürlich ein Punkt, aber unvermeidbar. Jede neue Technologie wird auch im Krieg eingesetzt, dazu gehört auch die Desinformation.