Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Nicht nur die Software, alle angegliederten Prozesse und auch andere Dinge die auf solchen alten Konstrukten aufsetzen.

Jein. Es werden System in neue überführt, ich denke aber nicht in dem Maß, dass mal hier ein Ende abzusehen ist. Das ist ja alles kaum Innovation, sondern mehr ‚Erhalt‘. Es gibt in ganz vielen Großunternehmen die ich gesehen habe, genau ein solches Problem. Oder eben mehrere.

Nein. So dinge wie ORM (For all the rest: Etwas um strukturiert auf Datenbanken zuzugreifen) oder verschiedene Bibliotheken, die zwar dem Entwickler das Leben vereinfachen, aus Sicht des Computer aber nur sinnlose Extra Aufrufe sind. Die Krux: Die Lebenszyklen dieser Helfer sind viel kürzer als die der Plattformen, was recht viel Abfall erzeugt, der oft ‚weg muss‘. Die Alternative ist viel konkreterer Code und viel weniger Abstraktion.

Das könnte das ‚Fundamental Theorem of Software Engineering‘ in Frage stellen.

Aus

„We can solve any problem by introducing an extra level of indirection.“

wird

A Computer can solve most problems without introducing a extra level of indirection.

Ich gehe mal aktuell von einem Faktor 10 aus, wenn man Entwicklerproduktivität nach dem getesteten und dokumentiertem Endergebnis beurteilt. Und das mal die restlichen 4.5 Jahre dieses Innovationszyklus extrapoliert - dann würde ich sagen 200 sind möglich, auch schon eine 100 wäre ein Paradigmentwchsel.

Mit einem anderen Qualitätsanspruch (ein viel höherer) ja. Und den sollten wir haben, wenn wir demnächst dem Computer in vielen Lebensbereichen das Kommando übergeben. Wahrscheinlichkeit 25% für 200, 50% für Roundabout 100.

Das wird nicht erreicht werden, in dem man sich mit Github Copilot (Ein Prorammierassistent) begonnene Codezeilen vervollständigen lässt, was man eh schon begonnen hat, sondern den Prozess stark ändert.

Und da sind wir wieder in der Diskussion, was „Verständnis“ ist.
Dass eine KI auch komplexe Logik-Aufgaben lösen kann, steht eigentlich außer Frage. Das Problem ist hier eher wieder eines der Definition: Die KI löst Logik-Probleme anders, als wir, aber sie löst sie - und das nicht, weil sie die Antwort auf das Problem „gelernt“ hat (also quasi die Antwort nachschlägt), sondern tatsächlich, indem sie Informationen verknüpft, wie es auch ein Mensch tun würde, der ein ihm unbekanntes logisches Problem löst.

Das sehen Experten anders. Klar kann man die Studie von OpenAI, welche Berufe am stärksten gefährdet sind, welche auch Mathematiker nennt, als bloße Werbung abtun, aber dem würde ich widersprechen.

Der Großteil der Mathematiker und Analysten (die auch oft Mathematiker sind) forschen eben nicht an „etwas bahnbrechend neuem“, sondern nutzen ihre mathematischen Methoden, um immer gleiche Analyse-Prozesse zu betreiben. Und diese mathematischen Methoden kann eine KI einfach wesentlich schneller und auf größere Datenmengen anwenden.

Dieser Artikel ist da auch schön, weil er auch mal ein anderes aktuelles KI-Projekt als ChatGPT zeigt:

Hier liegt der Fokus eher auf Logik und Mathematik und dieses Projekt zeigt sehr schön, dass eine KI schon in der Lage ist, einige der größten wissenschaftlichen Entdeckungen der letzten Jahrhunderte zu replizieren, obwohl zu ihren Trainingsdaten nur die absoluten mathematischen Basics gehörten.

1 „Gefällt mir“

Man kann sich natürlich hier hinstellen und alles Mögliche behaupten, aber davon wird es nicht richtiger. Ich bitte bei solchen Behauptungen Quellenangaben beizufügen.

Das Paper, auf das Bezug genommen wird, stellt ja selbst sehr schön dar, dass diese Forschung noch nicht weit fortgeschritten ist und hier vor allem funktioniert, weil die betrachteten Probleme nicht besonders komplex sind:

Excessive computational complexity is a major challenge for automated theorem provers (ATPs): for certain types of logic (including the one that we use), proving a conjecture is undecidable. Deriving models from a logical theory using formal reasoning tools is even more difficult when using complex arithmetic and calculus operators.

1 „Gefällt mir“

Bestreitest du wirklich, dass eine KI induktive und deduktive Logik einsetzt?

Es ist doch geradezu die Funktionsweise von maschinellem Lernen, aus vorgegebenen Daten (z.B. Messdaten) Regeln abzuleiten und aus vorgegebenen Regeln Daten zu produzieren. Das ist Logik - und im Prinzip die Funktionsweise von neuronalen Netzen.

Der zitierte Artikel zeigt hier doch schon einen Beleg dafür. Wenn die KI lediglich mathematische Grundrechenarten und Messergebnisse gelernt bekommt und darauf grundsätzliche Regeln wie die Keplerschen Planetengesetze rekonstruieren kann, ist das Logik.

Natürlich gibt es Übergänge zwischen Logik und Philosophie, gerade historisch - vor allem dann, wenn uns die Daten fehlen und wir nur im luftleeren Raum darüber philosophieren können, was logisch möglich sein könnte (dh. auch der historische Ursprung der Logik in der Philosophie). Das ist wegen der Tatsache, dass klare Ergebnisse fehlen, für Maschinen natürlich nur schwer zu greifen - aber für Menschen auch. Hier machen wir wieder den typischen Fehler, dass wir die logisch-philosophischen Ergüsse des Menschen als „richtig“ definieren und dann auf die KI, die nicht zu diesen Ergebnissen kommt, zeigen und sagen: „Siehste, das kann sie sie nicht!“. Aber das ist mMn kein Beweis mangelnder Logikfähigkeit, jedenfalls nicht, wenn man die Logik nach einer modernen Betrachtung eher in der Mathematik als der Philosophie verortet.

Auch dich muss ich daher bitten: Gib mir eine Definition von „Logik“, auf die du anspielst, wenn du sagst, dass eine KI Logik nicht oder nur unzureichend beherrschen würde. Für meinen Logikbegriff steht die Fähigkeit der Induktion und Deduktion im Vordergrund. Für dich vermutlich etwas anderes. Aber was?

Technisch gesehen hast du damit recht. Das Problem kommt aber mMn nicht primär von den Entwicklern, sondern durch die Firmen, die ihre Software immer schneller entwickelt haben will. Dann gibt es quasi immer 2 Möglichkeiten:

  1. Das Computerprogramm komplett selbst schreiben, dauert lange aber der jeweilige Programmierer versteht es hinterher.
  2. Man nimmt möglichst große Teile des Programmcodes aus freien Bibliotheken, Open Source-Projekten usw. Dann versteht es keiner so richtig aber das Projekt ist in der Hälfte der Zeit geschafft.

Da weiß man ja schon, welche Lösung Unternehmen gerne sehen möchten. Aber das ist eigentlich unabhängig von KI-Tools ein generelles Problem.

Du hast auf meine Nachfrage, woher diese Abschätzung kommt. eigentlich keine echten Argumente geliefert, sondern eine Schätzung nur etwas länglicher wiederholt. Schade.

Das ist ein wichtiger Punkt, den man hier mal festhalten sollte, denn in dem Paper, dass du verlinkt hast, heißt es ja:

Diese Fähigkeit zur Vernunft unterscheidet das System von einer „generativen KI“, wie sie beispielsweise bei ChatGPT vorliegt – das zwar über ein großes Sprachmodell verfügt, allerdings begrenzte logische Fähigkeiten hat und mitunter grundlegende Mathematik durcheinanderbringt.

Da sich der aktuelle Wirbel aber gerade um KI-Systeme wie ChatGPT dreht, ist dieser Artikel eher ein Argument für den Standpunkt von @faust .

Und schaut man sich dann noch die Einschränkungen an, die die Wissenschaftler in dem Paper machen, dass @faust zitiert, dann sieht es kaum so aus, als ob KI in den nächsten Jahren im Bereich Logik eine Konkurenz für den Menschen wird.

Wenn man einfach nur aus Messdaten Regeln ableitet, dann erhält man so aber lediglich Aussagen über Korrelation aber nicht zwingend über kausale Zusammenhänge. Es können noch irgendwelche Einflüsse auf die Messdaten wirken, welche die KI nicht kennt und für die sie keine Messdaten hat. Daher ist die KI immer auf einen Menschen angewiesen, der darauf achten muss, ihr quasi alle relevanten Informationen zu haben.

1 „Gefällt mir“

Das gilt ja generell für die Auswertung von (z.B. im Rahmen einer Studie erhobenen) Daten.
Die Frage ist: Wem fallen andere Erklärungsmuster schneller auf? Dem Menschen oder ein KI, welche die Daten auf Unregelmäßigkeit untersucht?

Die Erfahrung gerade im Bereich Big Data zeigt doch sehr deutlich, dass gerade KI gut darin ist, in einer riesigen Datenmenge Zusammenhänge zu entdecken, die dem Menschen bisher nicht aufgefallen sind. Deshalb wird der Einsatz von KI im Bereich „Überwachungstechnologie“ ja auch so kritisch beäugt.

Wir müssen vielleicht wirklich stärker eingrenzen, worüber wir diskutieren.
In allen Bereichen, in denen eine KI Arbeitsplätze ersetzen kann, werden immer auch menschliche Arbeitsplätze verbleiben. Es geht nie darum, dass die KI sämtliche Arbeitsplätze restlos ersetzt.

Es geht eher darum, dass die KI die einfacheren Aufgaben dieser Bereiche so schnell und überzeugend erledigt, dass man statt 100 Mathematikern in Zukunft nur noch 10 braucht, die die Arbeit der KI überwachen und eventuell hoch-spezialisierte Tätigkeiten erledigen, an denen die KI (noch) scheitert.

Auch im Bereich der Justiz z.B. ist es nicht so, dass Richter und Anwälte generell wegfallen würden, sondern eher darum, dass schon jetzt KI-generierte Textbausteine maßgebliche Arbeit erledigen und deshalb ein Anwalt oder Richter viel mehr Fälle erledigen kann als zuvor, wodurch natürlich Arbeitsplätze wegfallen (was in Anbetracht der überlasteten Justiz definitiv gewünscht ist!).

Es werden immer Menschen verbleiben, gerade in den Schlüsselfunktionen, aber das bedeutet nicht, dass eine KI nicht doch - je nach Bereich - zwischen 30 und 90% der Arbeitsplätze ersetzen kann.

Nur, so lange man die KI dahingehend beschränkt, dass man sie gezielt nicht zur eigenen Informationsfindung ermächtigt. Ohne „körperliche Komponente“ kann eine KI natürlich - selbst wenn man das zuließe - nur digitale Informationen einholen. Aber eine KI, die z.B. eigenständig zur Informationsgewinnung eine Online-Studie erstellt, durchführt und auswertet, wäre schon heute denkbar (bei aller berechtigten Kritik an Online-Studien, aber das ist ein anderes Thema).

1 „Gefällt mir“

In der Tageszeitung las ich ein interessantes Interview mit Meinolf Sellmann, Professor für Informatik und IT-Anwendungen in den USA.
Kurz zusammengefasst: KI sieht er positiv, besonders dahingehend, daß KI dabei helfen könne, einige Menscheitskrisen zu lösen. Z. B. Koordination selbstfahrender Autos als Beitrag zum Klimaschutz, Optimierung von Lieferketten, etc.
Er sieht aber auch Risiken, das es Gewinner und Verlierer geben wird. Das es Menschen geben wird, die ihre Arbeitskraft nicht mehr verkaufen können, weil KI bedingt keine Nachfrage mehr danach besteht.
Hier regt er an, sich schon heute ernsthaft Gedanken über eine Veränderung des Arbeitsmarktes zu machen. Also gesellschaftliche Teilhabe jenseits der Erwerbsarbeit regeln. Kernfrage: Wie hält man eine Gesellschaft zusammen, in der ein signifikanter Teil der Bevölkerung seine Arbeitskraft nicht mehr verkaufen kann? Um auch Unzufriedenheit und Enttäuschung vorzubeugen und Populismus den Nährboden zu entziehen.
Er hat da einen Punkt, finde ich.

1 „Gefällt mir“

Ja, jedenfalls bei den Machine-Learning-Algorithmen, die landläufig mit KI gleichgesetzt werden.

Was du hier beschreibst, ist pattern recognition. Da würde ich auch nicht bestreiten, dass neuronale Netze das tun. Es hat aber für mich nichts mit Logik zu tun.

Naja, das ist ja nicht wirklich, was dort passiert. Vielmehr bekommt die KI hier vorgegeben, dass es eine Formel geben soll, die eine bestimmte Länge hat, aus festgelegten Symbolen, Variablen und Zahlen besteht, und die rät es dann so lange, bis etwas halbwegs Vernünftiges herauskommt.

Tendenziell verstehe ich unter Logik eine Menge von Schlussregeln, mithilfe derer man aus einem gegebenen Axiomensystem neue gültige Aussagen herleiten kann.

1 „Gefällt mir“

Von der Argumentation über Logik (die ich mal @faust überlasse, weil er sich da besser auskennt) mal abgesehen, bin ich auch nicht sicher, ob der Artikel, den du hier zitierst, überhaupt als KI-Anwendung bezeichnet werden sollte.

In dem Artikel benennen die Autoren ihr Programm zwar als „AI“ aber sie schreiben, dass die Kernkomponenten mit „Symbolic Regression“ und „mixed-integer
nonlinear programming“. Ob man das als künstliche Intelligenz bezeichnen kann, darüber lässt sich bestimmt streiten.

Man kann die Entstehung des Papers übrigens bei arxiv nachverfolgen (Link zum Paper). Das Paper wurde schon 2021 unter dem Titel:

Integration of Data and Theory for Accelerated Derivable Symbolic Discovery

im Internet veröffentlicht aber von Nature (der Wissenschafts-Zeitschrift) erst 2023 unter dem Titel:

Combining data and theory for derivable scientific discovery with AI-Descartes

zur Veröffentlichung akzeptiert.

Die Bezeichnung als AI-Descartes kam im urprünglichen Entwurf auch nicht vor. Da wollte jemand wohl mit ganz großen Buchstaben klarmachen, dass es hier um eine KI-Anwendung gehen soll. Ist aber typisch für große Technologie-Hypes, alles in Wirtschaft und Forschung muss etwas mit dem Hype-Thema zu tun haben. Das war bei Industrie 4.0, Big data usw. auch so.

Und wie gesagt, ich kann in dem Paper nicht wirklich erkennen, wo die IBM-Forscher selbst AI trainiert haben sollen, sondern nur, dass sie sagen, dass Teile ihres „Prozesses“ auch von einer KI erledigt werden könnten.

Aus eigenen Experimenten. Ich denke ich habe, seit März ca. 50% zusätzlich zu meiner Arbeitszeit in praktische Anwendungen investiert. Den Faktor 10 bekomme ich beim schreiben von code selbst schon hin, im Vergleich zu eigenem Output. Nimmt man zu Code noch Dokumentation, Test und alle anderen ‚soften Sachen‘ dazu und nimmt an, dass man mit ‚AI‘ einen viel höhere Qualität hinbekommt (z.B. eine vollständige Dokumentation jeder Funktion, jeder Zeile und jedes Assets, alle notwendigen Tickets geschrieben, Unit und Integrationstests - dann wird da ein Schuh draus. Wenn man Programmieren als rein code schreiben betrachtet - nicht. Dazu kommen auch: mit weniger Leuten fallen die Effekte sehr großer Organisationen weg. Wir sehen dieses neue Paradigma schon bei Spielen wie ‚Road to Vostok‘ mit. Das Projekt nimmt noch keine ‚KI‘ Tools, aber dennoch nutzt es den Effekt die wegfallende Koordination durch mehr Output im Produkt zu ersetzen.
Die Wahrheit ist: Sehr viel von dem was Software ist, sind super triviale Dinge und hier kann einfach die Maschine viel besser. Sie muss auch kein ‚reasoning‘ betreiben, validation und co muss ich ansehen und prüfen. Lieber prüfe ich 2000 Zeile code (mit Boilerplate) als 1/10 davon zu schreiben und damit immer noch vorne dabei zu sein.
Das Argument nochmal: Eine Software besteht nicht nur aus Code - den die KI ‚kürzer‘ schreiben kann, sondern sehr viel anderen Elementen. Die kann die Maschine sehr gut und das verkleinert die Teams um Software. Darum der Wert.

1 „Gefällt mir“

KI-Fakes, auch Deepfakes genannt, sind nun in der deutschen Medienlandschaft angekommen.
Fakes von Tagesschau Moderator*innen sind im Umlauf

Wir brauchen dringend vernünftige Authentifizierung in der Fläche. Mann kann bei vielen Firmen über Telefongespräch mit einer KI stimme und dem ergoogelten Geburtsdatum Kundendaten ändern und vieles mehr. In der Breite sind viele Dienste angreifbar.

Die Audiofakes können mit 5 Minuten sauberen Audio gratis erstellt werden und können in Echtzeit als Stimmverzerrer eingesetzt werden. Interessierten kann ich das gerne vorführen. Es ist nicht perfekt, aber über Telefon und mit einspielten Störgeräuschen glaube ich, dass man damit genug Leute hinters licht führen kann.

Ich wüsste nicht, wie ich z.b. bei Onlineshops einstelle, dass der Telefonsupport rein gar nichts an meinem Konto machen darf, auch wenn jemand mit meiner Stimme anruft.

Ist das bei Online-Shops wirklich ein Problem?!?
Also gerade Massendienstleister wie Online-Shops oder Service-Anbieter (Vodafone, Stadtwerke, Banken) arbeiten doch nie über die Stimme, kein Mensch in deren Hotline kennt die Stimme auch nur eines einzelnen Kunden.

Also ja, im Hinblick auf Fake News oder Personen des öffentlichen Lebens existiert die Deep Fake-Problematik zweifelsohne, aber wir 08/15-Durchschnittsbürger werden in aller Regel höchstens von Freunden und Familienangehörigen an der Stimme identifiziert und kein Betrüger macht sich die Arbeit, irgendwie an Stimmmaterial von uns zu kommen, um dann Freunde und Verwandte abzuzocken. Also die Gefahr für Online-Shops und ähnliche Plattformen sehe ich hier wirklich nicht.

Da wäre ich mir nicht sicher, der Enkeltrick funktioniert vermutlich deutlich besser, wenn jemand mit einer Stimme anruft, die die älteren Menschen kennen.

Immerhin war das leicht als Fake zu erkennen. Klingt eher nach einem sarkastischen Seitenhieb entsprechender Kreise auf das ÖR System

Naja, dass die Stimme als Identifikation genutzt wird, das sollte man wohl wirklich inzwischen kritisch hinterfragen. Das könnte man tatsächlich durch gesetzliche Vorgaben gegenüber Unternehmen durchdrücken.

Aber ansonsten sehe ich da wenig Möglichkeiten. Wenn Menschen auf Demos schlecht gefakte Audio-Dateien glauben wollen, dann kann man sie daran kaum hindern.

Das ist sicher richtig. Ich habe mir aber in der Vergangenheit mal ein paar Artikel zu solchen Fällen durchgelesen. Da werden ältere Menschen teilweise aufgefordert, 50.000 Euro Bargeld auf einem irgendeinem Parkplatz! als Kaution zu übergeben.
Es tut mir leid, aber wer auf so etwas hereinfällt, den kann auch Technik nicht wirklich schützen. Da braucht es dann auch keine Sprachfälschung per KI sondern vermutlich nur jemanden, der sich glaubhaft am Telefon als Polizist ausgeben kann.

Jetzt hast Du genau die Fälle betrachtet, bei denen der Trick funktioniert hat. Um die ging es mir aber gar nicht, sondern um die, bei denen es eben nicht funktioniert hat. Man stelle sich vor, dass der Anrufer nun tatsächlich die Stimme einer bekannten Person hat. Wer hat dann die Geistesgegenwart die richtigen Nachfragen zu stellen?

Wenn dich jemand mit der Stimme deiner Mutter anruft und sagt, dass sie 1000 Euro braucht um Strafzettel zu bezahlen, würdest du das Geld dann sofort auf irgendein Konto überweisen, dass die Stimme dir am Telefon nennt?

Ich nicht, aber wenn jemand meinen Vater mit meiner Stime anruft (Alter 80+) und ihn bittet 1000€ zu überweisen bin ich mir da nicht so sicher, ob er schlau genug ist eine Wissensfrage abzuprüfen oder ggfs bei mir zurück zu rufen.

Und sich immer auf den Stand zu stelen: „Alles selbst schuld“ finde ich auch den „easy way out“.

Gleichzeitig gebe ich zu bedenken, dass das aktuell gerade erst der Anfang der technischen Entwicklung in diesem Bereich ist. D.h. man muss sich meiner Meinung nach jetzt schon Formen der Regulierung überlegen.

1 „Gefällt mir“

Ich sehe die Entwicklung eher dahingehend, dass man im Internet Medien per Default anzweifelt, es sei denn sie stammen von einem verifizieren account. Accounts mit so viel Reichweite, dass sie sich schwerlich erlauben könnten Fälschungen zu posten.
Fälschungen lassen sich nicht verhindern, die Verbreitung schon. Damit meine ich nicht verbote oder Filter, sondern dass reichweitenstarke Accounts sich selbst schaden würden

Ja, sehe ich auch so.

Die Telekom hat mit der SprachID („Meine Stimme ist mein Passwort“) eine Identifikation für den Kundendienst. Um mir Rückfragen zu Kundennummer und -konto und/oder die letzten 6 Ziffern meiner IBAN zu sparen, hatte ich diesen Dienst genutzt (hat aber nie zufriedenstellend funktioniert). Seit dem man Stimmen gut faken kann, habe ich das sofort wieder gelöscht. Kann ich nur jedem empfehlen.

Gibt es solche Stimmidentifikationsdienste auch bei anderen Providern, Dienstleistern, etc.?