In der Tageszeitung las ich ein interessantes Interview mit Meinolf Sellmann, Professor für Informatik und IT-Anwendungen in den USA.
Kurz zusammengefasst: KI sieht er positiv, besonders dahingehend, daß KI dabei helfen könne, einige Menscheitskrisen zu lösen. Z. B. Koordination selbstfahrender Autos als Beitrag zum Klimaschutz, Optimierung von Lieferketten, etc.
Er sieht aber auch Risiken, das es Gewinner und Verlierer geben wird. Das es Menschen geben wird, die ihre Arbeitskraft nicht mehr verkaufen können, weil KI bedingt keine Nachfrage mehr danach besteht.
Hier regt er an, sich schon heute ernsthaft Gedanken über eine Veränderung des Arbeitsmarktes zu machen. Also gesellschaftliche Teilhabe jenseits der Erwerbsarbeit regeln. Kernfrage: Wie hält man eine Gesellschaft zusammen, in der ein signifikanter Teil der Bevölkerung seine Arbeitskraft nicht mehr verkaufen kann? Um auch Unzufriedenheit und Enttäuschung vorzubeugen und Populismus den Nährboden zu entziehen.
Er hat da einen Punkt, finde ich.
Ja, jedenfalls bei den Machine-Learning-Algorithmen, die landläufig mit KI gleichgesetzt werden.
Was du hier beschreibst, ist pattern recognition. Da würde ich auch nicht bestreiten, dass neuronale Netze das tun. Es hat aber für mich nichts mit Logik zu tun.
Naja, das ist ja nicht wirklich, was dort passiert. Vielmehr bekommt die KI hier vorgegeben, dass es eine Formel geben soll, die eine bestimmte Länge hat, aus festgelegten Symbolen, Variablen und Zahlen besteht, und die rät es dann so lange, bis etwas halbwegs Vernünftiges herauskommt.
Tendenziell verstehe ich unter Logik eine Menge von Schlussregeln, mithilfe derer man aus einem gegebenen Axiomensystem neue gültige Aussagen herleiten kann.
Von der Argumentation über Logik (die ich mal @faust überlasse, weil er sich da besser auskennt) mal abgesehen, bin ich auch nicht sicher, ob der Artikel, den du hier zitierst, überhaupt als KI-Anwendung bezeichnet werden sollte.
In dem Artikel benennen die Autoren ihr Programm zwar als „AI“ aber sie schreiben, dass die Kernkomponenten mit „Symbolic Regression“ und „mixed-integer
nonlinear programming“. Ob man das als künstliche Intelligenz bezeichnen kann, darüber lässt sich bestimmt streiten.
Man kann die Entstehung des Papers übrigens bei arxiv nachverfolgen (Link zum Paper). Das Paper wurde schon 2021 unter dem Titel:
Integration of Data and Theory for Accelerated Derivable Symbolic Discovery
im Internet veröffentlicht aber von Nature (der Wissenschafts-Zeitschrift) erst 2023 unter dem Titel:
Combining data and theory for derivable scientific discovery with AI-Descartes
zur Veröffentlichung akzeptiert.
Die Bezeichnung als AI-Descartes kam im urprünglichen Entwurf auch nicht vor. Da wollte jemand wohl mit ganz großen Buchstaben klarmachen, dass es hier um eine KI-Anwendung gehen soll. Ist aber typisch für große Technologie-Hypes, alles in Wirtschaft und Forschung muss etwas mit dem Hype-Thema zu tun haben. Das war bei Industrie 4.0, Big data usw. auch so.
Und wie gesagt, ich kann in dem Paper nicht wirklich erkennen, wo die IBM-Forscher selbst AI trainiert haben sollen, sondern nur, dass sie sagen, dass Teile ihres „Prozesses“ auch von einer KI erledigt werden könnten.
Aus eigenen Experimenten. Ich denke ich habe, seit März ca. 50% zusätzlich zu meiner Arbeitszeit in praktische Anwendungen investiert. Den Faktor 10 bekomme ich beim schreiben von code selbst schon hin, im Vergleich zu eigenem Output. Nimmt man zu Code noch Dokumentation, Test und alle anderen ‚soften Sachen‘ dazu und nimmt an, dass man mit ‚AI‘ einen viel höhere Qualität hinbekommt (z.B. eine vollständige Dokumentation jeder Funktion, jeder Zeile und jedes Assets, alle notwendigen Tickets geschrieben, Unit und Integrationstests - dann wird da ein Schuh draus. Wenn man Programmieren als rein code schreiben betrachtet - nicht. Dazu kommen auch: mit weniger Leuten fallen die Effekte sehr großer Organisationen weg. Wir sehen dieses neue Paradigma schon bei Spielen wie ‚Road to Vostok‘ mit. Das Projekt nimmt noch keine ‚KI‘ Tools, aber dennoch nutzt es den Effekt die wegfallende Koordination durch mehr Output im Produkt zu ersetzen.
Die Wahrheit ist: Sehr viel von dem was Software ist, sind super triviale Dinge und hier kann einfach die Maschine viel besser. Sie muss auch kein ‚reasoning‘ betreiben, validation und co muss ich ansehen und prüfen. Lieber prüfe ich 2000 Zeile code (mit Boilerplate) als 1/10 davon zu schreiben und damit immer noch vorne dabei zu sein.
Das Argument nochmal: Eine Software besteht nicht nur aus Code - den die KI ‚kürzer‘ schreiben kann, sondern sehr viel anderen Elementen. Die kann die Maschine sehr gut und das verkleinert die Teams um Software. Darum der Wert.
KI-Fakes, auch Deepfakes genannt, sind nun in der deutschen Medienlandschaft angekommen.
Fakes von Tagesschau Moderator*innen sind im Umlauf
Wir brauchen dringend vernünftige Authentifizierung in der Fläche. Mann kann bei vielen Firmen über Telefongespräch mit einer KI stimme und dem ergoogelten Geburtsdatum Kundendaten ändern und vieles mehr. In der Breite sind viele Dienste angreifbar.
Die Audiofakes können mit 5 Minuten sauberen Audio gratis erstellt werden und können in Echtzeit als Stimmverzerrer eingesetzt werden. Interessierten kann ich das gerne vorführen. Es ist nicht perfekt, aber über Telefon und mit einspielten Störgeräuschen glaube ich, dass man damit genug Leute hinters licht führen kann.
Ich wüsste nicht, wie ich z.b. bei Onlineshops einstelle, dass der Telefonsupport rein gar nichts an meinem Konto machen darf, auch wenn jemand mit meiner Stimme anruft.
Ist das bei Online-Shops wirklich ein Problem?!?
Also gerade Massendienstleister wie Online-Shops oder Service-Anbieter (Vodafone, Stadtwerke, Banken) arbeiten doch nie über die Stimme, kein Mensch in deren Hotline kennt die Stimme auch nur eines einzelnen Kunden.
Also ja, im Hinblick auf Fake News oder Personen des öffentlichen Lebens existiert die Deep Fake-Problematik zweifelsohne, aber wir 08/15-Durchschnittsbürger werden in aller Regel höchstens von Freunden und Familienangehörigen an der Stimme identifiziert und kein Betrüger macht sich die Arbeit, irgendwie an Stimmmaterial von uns zu kommen, um dann Freunde und Verwandte abzuzocken. Also die Gefahr für Online-Shops und ähnliche Plattformen sehe ich hier wirklich nicht.
Da wäre ich mir nicht sicher, der Enkeltrick funktioniert vermutlich deutlich besser, wenn jemand mit einer Stimme anruft, die die älteren Menschen kennen.
Immerhin war das leicht als Fake zu erkennen. Klingt eher nach einem sarkastischen Seitenhieb entsprechender Kreise auf das ÖR System
Naja, dass die Stimme als Identifikation genutzt wird, das sollte man wohl wirklich inzwischen kritisch hinterfragen. Das könnte man tatsächlich durch gesetzliche Vorgaben gegenüber Unternehmen durchdrücken.
Aber ansonsten sehe ich da wenig Möglichkeiten. Wenn Menschen auf Demos schlecht gefakte Audio-Dateien glauben wollen, dann kann man sie daran kaum hindern.
Das ist sicher richtig. Ich habe mir aber in der Vergangenheit mal ein paar Artikel zu solchen Fällen durchgelesen. Da werden ältere Menschen teilweise aufgefordert, 50.000 Euro Bargeld auf einem irgendeinem Parkplatz! als Kaution zu übergeben.
Es tut mir leid, aber wer auf so etwas hereinfällt, den kann auch Technik nicht wirklich schützen. Da braucht es dann auch keine Sprachfälschung per KI sondern vermutlich nur jemanden, der sich glaubhaft am Telefon als Polizist ausgeben kann.
Jetzt hast Du genau die Fälle betrachtet, bei denen der Trick funktioniert hat. Um die ging es mir aber gar nicht, sondern um die, bei denen es eben nicht funktioniert hat. Man stelle sich vor, dass der Anrufer nun tatsächlich die Stimme einer bekannten Person hat. Wer hat dann die Geistesgegenwart die richtigen Nachfragen zu stellen?
Wenn dich jemand mit der Stimme deiner Mutter anruft und sagt, dass sie 1000 Euro braucht um Strafzettel zu bezahlen, würdest du das Geld dann sofort auf irgendein Konto überweisen, dass die Stimme dir am Telefon nennt?
Ich nicht, aber wenn jemand meinen Vater mit meiner Stime anruft (Alter 80+) und ihn bittet 1000€ zu überweisen bin ich mir da nicht so sicher, ob er schlau genug ist eine Wissensfrage abzuprüfen oder ggfs bei mir zurück zu rufen.
Und sich immer auf den Stand zu stelen: „Alles selbst schuld“ finde ich auch den „easy way out“.
Gleichzeitig gebe ich zu bedenken, dass das aktuell gerade erst der Anfang der technischen Entwicklung in diesem Bereich ist. D.h. man muss sich meiner Meinung nach jetzt schon Formen der Regulierung überlegen.
Ich sehe die Entwicklung eher dahingehend, dass man im Internet Medien per Default anzweifelt, es sei denn sie stammen von einem verifizieren account. Accounts mit so viel Reichweite, dass sie sich schwerlich erlauben könnten Fälschungen zu posten.
Fälschungen lassen sich nicht verhindern, die Verbreitung schon. Damit meine ich nicht verbote oder Filter, sondern dass reichweitenstarke Accounts sich selbst schaden würden
Ja, sehe ich auch so.
Die Telekom hat mit der SprachID („Meine Stimme ist mein Passwort“) eine Identifikation für den Kundendienst. Um mir Rückfragen zu Kundennummer und -konto und/oder die letzten 6 Ziffern meiner IBAN zu sparen, hatte ich diesen Dienst genutzt (hat aber nie zufriedenstellend funktioniert). Seit dem man Stimmen gut faken kann, habe ich das sofort wieder gelöscht. Kann ich nur jedem empfehlen.
Gibt es solche Stimmidentifikationsdienste auch bei anderen Providern, Dienstleistern, etc.?