Neue Technologie: Chat GPT, Künstliche Intelligenz und Implikationen auf politischen Diskurs

Je nachdem wie breit oder eng man den Begriff Technologie fasst, gibt es da eine Menge Technologien, die erst sehr verhältnismäßig spät gezündet haben.

Stimmt, die Zugänglichkeit der Technologie ist vermutlich ein Faktor. Dennoch würde ich sagen, dass sich die Art und Weise wie Regierungen, Finanzinstitute und auch die Kunden auf interessante, neue Technologien blicken, gewandelt hat.

Vielleicht kann man diesen Teil auch tatsächlich in eine extra Diskussion über Technologie-Hypes im allgemeinen auslagern, gab ja in den vergangenen Jahren genug Beispiele.

Was mir bei vielen der Ankündigungen rund um KI-Software immer fehlt, sind die konkreten Anwendungsfälle bzw. das, was die KI tatsächlich leisten soll.

Jetzt hat Microsoft aber wohl sein nächstes großes KI-Tool für Office vorgestellt und auch den Preis genannt:

Ich halte Large Language Modells ja grundsätzlich für eine spannende Technologie und könnte mir gut vorstellen, dass das so eine Art Lackmus-Test für deren tatsächlichen produktiven Fähigkeiten wird.

Also es gibt doch schon viele Beispiele für den effektiven Einsatz von KI-Software:

Das sind nur die ersten Beispiele, die mir spontan einfallen. Die Liste ließe sich endlos fortsetzen.

Das ganze Thema Text-Synthese, -Analyse und -Übersetzung halte ich ja auch für eine absolut sinnvolle und heute schon potente Anwendung, speziell von LLM.

Naja, nur weil 70 % der Github-User schon mal eine KI-Tools als Unterstützung beim Programmieren benutzt haben, muss das noch nicht heißen, dass die Mehrzahl an Code auf diese Weise entsteht.

Aber okay, vieles im Code ist Initialisierung und so was kann man gut copy-pasten und oft genug nimmt man für gängige Probleme halt gängige Lösungen von stackoverflow oder so. So etwas kann man irgendwo vereinfachen.

Aber am Ende des Tages muss man seinen Code eigentlich immer selbst auch verstehen. Das kann kann einem kein KI-Tool abnehmen. Und wenn im Code ein Fehler ist, dann kommt der Chef oder Kunde zu mir und macht mich rund und nicht die KI-Software.
Und das ist auch richtig so, sonst schludern wir Programmierer in Zukunft genauso herum, wie heute die Anwender und schieben alles nur noch auf „die Software, da kann man nichts machen“ :wink: .

Ist sicher auch ein guter Anwendungsbereich und vor allem einer, in dem nicht viel schief gehen kann. aber ich glaube irgendwie nicht, dass die aktuelle KI-Euphorie nur wegen Computerspielen da wäre.

Ich bin kein Chemiker und kann nicht wirklich einschätzen, wie „gut“ die Ergebnisse sind, die da gemacht wurden. Aber der Artikel, den du verlinkt hast, enthält zumindest diesen Hinweis:

Aber die große Frage sei immer, ob man die Stoffe überhaupt synthetisieren - also herstellen - könnte. Manche Verbindungen halten vielleicht nicht, in anderen Fällen mangelt es an Rohstoffen.

Falls hier jemand Ahnung von Chemie bzw. Pharmazie hat, hier gibt es auch den Link zu dem Paper:

Alles in allem sind das durchaus interessante Ansätze und ich will auch nicht immer nur kritisieren. Wir werden ja bei Microsoft und ihren großen Firmen-Kunden demnächst sehen, wie produktiv die KI-Tools sind.

Übrigens, weil ich gerade zufällig darüber gestoßen bin:

Ein Artikel der Frankfurter Rundschau (die ja durchaus eine seriöse Zeitung ist) über den Ukraine-Krieg, der ergänzt wird mit der klassischen Formel:

Diese Formel begegnet mir in den letzten Wochen immer häufiger - und das ist wohl erst der Anfang des Trends. So dürfte in Zukunft ein Journalist die Arbeit von vielen Journalisten erledigen können, wenn man statt Formulieren und Fakten einholen nur noch Fakten überprüfen muss.

Um grundsätzlich auf deine Frage zurück zu kommen:

Betroffen von Rationalisierung im Rahmen der KI sind vor allem Berufe, die
a) viel mit Sprache arbeiten (Dolmetscher, Übersetzer, Journalisten, Werbetexter)
b) mit großen Datenmengen arbeiten, welche immer ähnliche Prozesse durchlaufen (Steuerfachangestellte, Buchhalter)
c) stark mit Logik arbeiten (Mathematiker, Analysten, Programmierer, Juristen)

Diese drei Bereiche sind Bereiche, in denen eine KI in jedem Fall sehr viel mehr leisten kann als ein einzelner Mensch. Eine Übersetzer- oder Dolmetscher-KI kann Texte aus allen relevanten Sprachen (für die daher genug Übungsmaterial zur Verfügung steht) in Echtzeit übersetzen, sodass man nicht mehr ein ganzes Netzwerk an Dolmetschern und Übersetzern braucht. Eine KI kann weit größere Datenmengen (z.B. komplexe Buchhaltungen) besser verstehen als jeder Mensch, denn ab einer gewissen Komplexität kann selbst der beste Buchhalter nicht mehr alles im Blick behalten - und wenn man die Arbeit zwischen verschiedenen Bereichs-Buchhaltern aufteilt, wird es immer zu Informationsverlust kommen. Und eine KI kann komplexe, große Datenmengen sehr viel besser und effizienter analysieren als ein Mensch, sie kann auf weit größere Erfahrungswerte zugreifen als jeder Analyst oder Programmierer.

Als Beispiel für die Steuerberatung:
Vor 40 Jahren gingen noch viele Arbeitnehmer zum Steuerberater, weil es ohne Hilfe und eigene Fachkenntnis nicht ging.
Vor 20 Jahren fing es an, dass Arbeitnehmer ihre Steuererklärung schon von einfacher Software unterstützt größtenteils selbst erledigen konnten. Für Unternehmen war diese Unterstützung einfacher Software aber nicht genug, die brauchten immer noch Steuerberater.
Jetzt sind wir an einem Punkt, an dem eine KI-Software auch die komplexen betrieblichen Steuererklärungen immer mehr bewältigen kann (SAP hat nicht umsonst gerade erst große Anteile an einem KI-Unternehmen gekauft). In wenigen Jahren wird vermutlich kaum ein Unternehmen noch einen Steuerberater für die laufenden Steuersachen oder den Jahresabschluss brauchen.

Ja das kann gut sein. Besonders, wenn es sehr niederschwellige Aufgaben sind, wie DPA-Meldungen einfach nur für die eigene Online-Zeitung aufarbeiten. Aber richtig guter Journalismus, der auch erklärt oder investigativ ist, wird vermutlich immer noch Menschen brauchen.

Wie du ja sagst, gibt es Computer-Programme für Steuererklärung usw. schon sehr lange. Und ich vermute mal, es stellt auch kein Problem da, z.B. alle aktuellen Steuer-Gesetze die Lohnsteuern betreffen in einem konventionellen Computerprogramm abzubilden, sodass dieses Computer-Programm eine fehlerfreie Lohnsteuer produziert.

Sollte ich mich da nicht irren, dann würde KI-Software hier eigentlich nichts besser machen können, denn KI-Tools sind immer nur dann gut, wenn die „Regeln“ nach denen bestimmte Prozesse funktionieren nicht irgendwo klar stehen sondern eben nur erlern werden können.

Bei der Steuererklärung ist das aber ja nicht so, denn die Steuergesetze sind ja festgelegt und müssen nicht erst durch das Betrachten von Millionen von fertigen Steuererklärungen „vermutet“ werden, denn das ist es ja, was beim Training von KI-Systemen passiert.

Als Hilfstools ja, aber wenn es um den Kern der Arbeit geht, glaube ich das nicht. Dafür sind die aktuellen KI-Systeme, die alle irgendwo stochastisch, also mit Wahrscheinlichkeiten, arbeiten, eigentlich nicht geeignet.

Insbesondere bei Juristen bzw. dem Einsatz von KI-Systemen in der Justiz ist die Frage ja auch, ob wir als Gesellschaft das wollen. Oben fiel ja schon der Satz:

Die Entwicklung lässt sich nicht aufhalten.

Das mag hier auch stimmen, aber nur weil man die Entwicklung nicht aufhalten können, heißt das ja nicht, dass wir sie nicht reglementieren können. Insbesondere bei höchst staatlichen Aufgaben wie der Justiz.

Vier Kameras an der Decke überwachen das 25 mal 15 Meter große Hallenbecken von oben. „Die Kameras detektieren die Bewegungen im Wasser und erfassen ein Bewegungsprofil, das von der KI analysiert wird“, erklärte Thomas Baum, Betriebsleiter beim Wiesbadener Badbetreiber mattiaqua. Sobald Bewegungsmuster auffällig seien, werde das Personal über eine Smartwatch, also eine digitale Uhr, alarmiert. Die Uhr gebe dann einen lauten Piepton ab und vibriere. Außerdem werden auf dem Display ein roter Punkt als genaue Positionsangabe und drei Bilder der Situation angezeigt.

1 „Gefällt mir“

@Eule Schönes Beispiel, danke dafür.

Spannend finde ich hier die Details:
Das System wurde schon 2020 eingeführt und zw. 30.000 € und 40.000 €, etwa soviel wie ein Rettungsschwimmer brutto verdient (link zu stepstone).

Es gibt noch einen weiteren Artikel dazu vom swr:
So hilft Künstliche Intelligenz bei der Badeaufsicht - swr.de

Dort heißt es, das System habe anfangs viele Fehlalarme gehabt, es habe also Ertrinkende gemeldet, wo es keine gab, z.B. wenn Schwimmer am Bahnende eine Rolle gemacht haben. Daraufhin wurde das System nachkorrigiert. Das klingt bei einem selbstlernenden System natürlich erst mal irgendwo logisch und wünschenswert.

Gleichzeitig habe es in der Zeit aber (glücklicherweise) nie einen echten Ernstfall gegeben, bei dem jmd. zu ertrinken drohte. Das System musste also seine Fähigkeiten bisher nicht wirklich unter Beweis stellen. Daher besteht zumindest die Möglichkeit, dass es nicht nur Fehlalarme (false positives) produziert sondern auch übersehen könnte, wenn jmd. wirklich droht zu ertrinken.

Das es in den 3 Jahren seit dem das System in dem Freiband im Einsatz ist, keinen Zwischenfall gab ist auch nicht weiter verwunderlich, den laut DLRG kommt es in Schwimmbäder mit zu den wenigsten Ertrunkenen (Link zur Quelle):


Die 13 Personen, die 2022 in deutschen Schwimmbädern ertrunken sind, machen bei ca. 6000 Schwimmbädern in Deutschland (Quelle: FR) etwa 0.002 Ertrunkene pro Jahr oder anders formuliert: Mit unseren aktuellen Rettungsschwimmer-System ertrinkt in Deutschland nur alle 500 Jahre jemand in einem bestimmten Schwimmbad.

Ob man diese sehr gute Statistik durch Technikeinsatz noch spürbar verbessern kann, würde ich daher bezweifeln. Hinzu kommt, dass Schwimmbäder in Deutschland auch viele andere Baustellen (Personalmangel, Investitionsstau) haben, wie in dem FR-Artikel zu lesen ist, den ich hier gerade verlinkt habe.

Ich würde daher sagen, hier haben wir es mit einem eher schlechten Beispiel von Technikfolgenabschätzung zu tun und zwar unabhängig davon ob hier ein KI-System eingesetzt wurde. Aber zu einem „guten“ Anwendungsfall für KI-Software macht es das System mMn eher nicht.

Auf dem jetzigen Stand will man das definitiv nicht. Wahrscheinlich ist das hier schon irgendwo zitiert worden: Noch sind sind KI-Systeme keine zuverlässigen Quellen - Präzedenzfälle frei Haus? ChatGPT erfindet Gerichtsurteile, Anwalt fällt darauf rein - Jurios
Bei journalistischen Beiträgen dürfte das nicht groß anders sein.

1 „Gefällt mir“

Puh … erst mal hoffe ich als ‚Programmierer‘ das wir so einige Probleme in den Griff bekommen, die uns grade echt quälen. Es gibt durchaus eine große Anzahl von Systemen, die einen großen Teil der Wirtschaft am laufen halten, die nicht mehr so einfach geändert werden können. z.B. Versicherungsverträge von 1986 heute noch zu verstehen, die Infrastruktur dahinter bereitzuhalten etc. ist nur ein Problem. Es wird mehr Software geschrieben und verteilt als eingestellt und abgeschaltet wird dazu es gibt schon auch bei modernen ‚stacks‘ das Problem dass sie nach unter 10 Jahren keiner mehr versteht. In so fern ist da viel mit der oft zitierten Produktivitätssteigerung möglich. Es kommt ja mal wieder ein neues ‚y2k‘ Problem auf uns zu und auch so andere Bereiche würde von etwas Hilfe sehr profitieren.

1 „Gefällt mir“

Ist das etwas, wo speziell KI-Systeme helfen können? Und wenn ja, warum?

Jo. Das sind große Stücke Software, mit fragwürdiger Dokumentation wo einfach mal die Leute in Rente gehen. Die werden momentan einfach am Leben erhalten und sozusagen ‚aufeinander gestapelt‘. Das könnte man in effizientere, neue Systeme überführen. Banken haben das selbe Problem. Es ist der Wahnsinn, was da alles an IT Infrastruktur läuft und nur teils genutzt wird oder einfach laufen muss, bis zum St Nimmerleins Tag. Was nebenher auch massiv gefährlich ist wegen Sicherheit und Planbarkeit etc. Hier geht grade ein Fenster zu einem Level an Produktivität auf, was man so nicht kannte bisher.

Ich glaube, der Haufen ‚Softwaremüll‘ in Betrieb ist ein Super Usecase und ich freue mich drauf was da kommt.

Auch diverse Helferlein, die eher der Lebensqualität der Entwickler dienen können nun auch eher weg gelassen werden. Am Ende ist dann auch länger verständlich, warum etwas in code passiert ist. AI ist nicht faul, sie dokumentiert und testet alles.

Dazu kommt noch, dass gewisse Dinge momentan als unerreichbar gelten, z.B: Einen sog. Hyperscaler (Cloudhosting) wie AWS in Europa zu bauen. Nehmen wir mal einen Produktivitätszugewinn von Faktor 200 an, dann kann da wirklich sehr viel sinnvolles Zeug mit gemacht werden. AWS hatte 2018 40000 Mitarbeiter. Die bekommt in Europa und besonders Deutschland eh keiner zusammen um sowas zu machen … durch 200 (vereinfacht auf Software engineering) wären das dann 200. Solche Teams gibt es schon eher.

Ahh, du meinst diese alte Cobol-Software, die bei Banken usw. noch im Einsatz ist.

Das Thema gibt es doch schon ewig. Und es wird auch schon lange gemacht, z.B. durch Umsetzung des Cobol-Programmcodes in Java. Einige Banken z.B. sträuben sich aber wohl dagegen, weil es ihnen zu unsicher ist. Da bin ich mir nicht sicher, ob sich das durch KI-Systeme, bei denen man das Ergebnis ja noch schlechter vorhersagen kann, wirklich besser wird.

Was meinst du den damit? Ventilatoren? :wink:

Hat diese Zahl irgendeinen realen Hintergrund? Denn das hieße, dass 1 Programmierer die Arbeit von 200 Programmierern erledigen könnte. Demnach müsste kein Mensch mehr die Arbeit der KI-Programmiertools noch überprüfen, oder? Glaubst du wirklich, dass wir diesen Zustand in den nächsten Jahren erreichen werden? Ich halte das für extrem unwahrscheinlich.

Das ist jedenfalls bei dem, was aktuell unter KI verhandelt wird, ziemlicher Unsinn. ChatGPT & Co. haben null Verständnis von Logik (das ist auch gar nicht das Ziel) und sind nicht in der Lage, Aufgaben fürs erste Semester in den entsprechenden Studiengängen zu lösen.

Es gibt sicherlich Ansätze, KI zu entwickeln, die mit Logik arbeitet, aber die Forschung in diese Richtung steckt im Moment in den Kinderschuhen. Als Mathematiker mache ich mir jedenfalls null Sorgen um meine Jobsicherheit. Der größte Impact von ChatGPT ist für mich zusätzliche Arbeit, die dadurch entsteht, dass ich Hausarbeiten von Studierenden auf Plagiat durch Textgenerierungsprogramme überprüfen muss.

1 „Gefällt mir“

Nicht nur die Software, alle angegliederten Prozesse und auch andere Dinge die auf solchen alten Konstrukten aufsetzen.

Jein. Es werden System in neue überführt, ich denke aber nicht in dem Maß, dass mal hier ein Ende abzusehen ist. Das ist ja alles kaum Innovation, sondern mehr ‚Erhalt‘. Es gibt in ganz vielen Großunternehmen die ich gesehen habe, genau ein solches Problem. Oder eben mehrere.

Nein. So dinge wie ORM (For all the rest: Etwas um strukturiert auf Datenbanken zuzugreifen) oder verschiedene Bibliotheken, die zwar dem Entwickler das Leben vereinfachen, aus Sicht des Computer aber nur sinnlose Extra Aufrufe sind. Die Krux: Die Lebenszyklen dieser Helfer sind viel kürzer als die der Plattformen, was recht viel Abfall erzeugt, der oft ‚weg muss‘. Die Alternative ist viel konkreterer Code und viel weniger Abstraktion.

Das könnte das ‚Fundamental Theorem of Software Engineering‘ in Frage stellen.

Aus

„We can solve any problem by introducing an extra level of indirection.“

wird

A Computer can solve most problems without introducing a extra level of indirection.

Ich gehe mal aktuell von einem Faktor 10 aus, wenn man Entwicklerproduktivität nach dem getesteten und dokumentiertem Endergebnis beurteilt. Und das mal die restlichen 4.5 Jahre dieses Innovationszyklus extrapoliert - dann würde ich sagen 200 sind möglich, auch schon eine 100 wäre ein Paradigmentwchsel.

Mit einem anderen Qualitätsanspruch (ein viel höherer) ja. Und den sollten wir haben, wenn wir demnächst dem Computer in vielen Lebensbereichen das Kommando übergeben. Wahrscheinlichkeit 25% für 200, 50% für Roundabout 100.

Das wird nicht erreicht werden, in dem man sich mit Github Copilot (Ein Prorammierassistent) begonnene Codezeilen vervollständigen lässt, was man eh schon begonnen hat, sondern den Prozess stark ändert.

Und da sind wir wieder in der Diskussion, was „Verständnis“ ist.
Dass eine KI auch komplexe Logik-Aufgaben lösen kann, steht eigentlich außer Frage. Das Problem ist hier eher wieder eines der Definition: Die KI löst Logik-Probleme anders, als wir, aber sie löst sie - und das nicht, weil sie die Antwort auf das Problem „gelernt“ hat (also quasi die Antwort nachschlägt), sondern tatsächlich, indem sie Informationen verknüpft, wie es auch ein Mensch tun würde, der ein ihm unbekanntes logisches Problem löst.

Das sehen Experten anders. Klar kann man die Studie von OpenAI, welche Berufe am stärksten gefährdet sind, welche auch Mathematiker nennt, als bloße Werbung abtun, aber dem würde ich widersprechen.

Der Großteil der Mathematiker und Analysten (die auch oft Mathematiker sind) forschen eben nicht an „etwas bahnbrechend neuem“, sondern nutzen ihre mathematischen Methoden, um immer gleiche Analyse-Prozesse zu betreiben. Und diese mathematischen Methoden kann eine KI einfach wesentlich schneller und auf größere Datenmengen anwenden.

Dieser Artikel ist da auch schön, weil er auch mal ein anderes aktuelles KI-Projekt als ChatGPT zeigt:

Hier liegt der Fokus eher auf Logik und Mathematik und dieses Projekt zeigt sehr schön, dass eine KI schon in der Lage ist, einige der größten wissenschaftlichen Entdeckungen der letzten Jahrhunderte zu replizieren, obwohl zu ihren Trainingsdaten nur die absoluten mathematischen Basics gehörten.

1 „Gefällt mir“

Man kann sich natürlich hier hinstellen und alles Mögliche behaupten, aber davon wird es nicht richtiger. Ich bitte bei solchen Behauptungen Quellenangaben beizufügen.

Das Paper, auf das Bezug genommen wird, stellt ja selbst sehr schön dar, dass diese Forschung noch nicht weit fortgeschritten ist und hier vor allem funktioniert, weil die betrachteten Probleme nicht besonders komplex sind:

Excessive computational complexity is a major challenge for automated theorem provers (ATPs): for certain types of logic (including the one that we use), proving a conjecture is undecidable. Deriving models from a logical theory using formal reasoning tools is even more difficult when using complex arithmetic and calculus operators.

1 „Gefällt mir“

Bestreitest du wirklich, dass eine KI induktive und deduktive Logik einsetzt?

Es ist doch geradezu die Funktionsweise von maschinellem Lernen, aus vorgegebenen Daten (z.B. Messdaten) Regeln abzuleiten und aus vorgegebenen Regeln Daten zu produzieren. Das ist Logik - und im Prinzip die Funktionsweise von neuronalen Netzen.

Der zitierte Artikel zeigt hier doch schon einen Beleg dafür. Wenn die KI lediglich mathematische Grundrechenarten und Messergebnisse gelernt bekommt und darauf grundsätzliche Regeln wie die Keplerschen Planetengesetze rekonstruieren kann, ist das Logik.

Natürlich gibt es Übergänge zwischen Logik und Philosophie, gerade historisch - vor allem dann, wenn uns die Daten fehlen und wir nur im luftleeren Raum darüber philosophieren können, was logisch möglich sein könnte (dh. auch der historische Ursprung der Logik in der Philosophie). Das ist wegen der Tatsache, dass klare Ergebnisse fehlen, für Maschinen natürlich nur schwer zu greifen - aber für Menschen auch. Hier machen wir wieder den typischen Fehler, dass wir die logisch-philosophischen Ergüsse des Menschen als „richtig“ definieren und dann auf die KI, die nicht zu diesen Ergebnissen kommt, zeigen und sagen: „Siehste, das kann sie sie nicht!“. Aber das ist mMn kein Beweis mangelnder Logikfähigkeit, jedenfalls nicht, wenn man die Logik nach einer modernen Betrachtung eher in der Mathematik als der Philosophie verortet.

Auch dich muss ich daher bitten: Gib mir eine Definition von „Logik“, auf die du anspielst, wenn du sagst, dass eine KI Logik nicht oder nur unzureichend beherrschen würde. Für meinen Logikbegriff steht die Fähigkeit der Induktion und Deduktion im Vordergrund. Für dich vermutlich etwas anderes. Aber was?

Technisch gesehen hast du damit recht. Das Problem kommt aber mMn nicht primär von den Entwicklern, sondern durch die Firmen, die ihre Software immer schneller entwickelt haben will. Dann gibt es quasi immer 2 Möglichkeiten:

  1. Das Computerprogramm komplett selbst schreiben, dauert lange aber der jeweilige Programmierer versteht es hinterher.
  2. Man nimmt möglichst große Teile des Programmcodes aus freien Bibliotheken, Open Source-Projekten usw. Dann versteht es keiner so richtig aber das Projekt ist in der Hälfte der Zeit geschafft.

Da weiß man ja schon, welche Lösung Unternehmen gerne sehen möchten. Aber das ist eigentlich unabhängig von KI-Tools ein generelles Problem.

Du hast auf meine Nachfrage, woher diese Abschätzung kommt. eigentlich keine echten Argumente geliefert, sondern eine Schätzung nur etwas länglicher wiederholt. Schade.

Das ist ein wichtiger Punkt, den man hier mal festhalten sollte, denn in dem Paper, dass du verlinkt hast, heißt es ja:

Diese Fähigkeit zur Vernunft unterscheidet das System von einer „generativen KI“, wie sie beispielsweise bei ChatGPT vorliegt – das zwar über ein großes Sprachmodell verfügt, allerdings begrenzte logische Fähigkeiten hat und mitunter grundlegende Mathematik durcheinanderbringt.

Da sich der aktuelle Wirbel aber gerade um KI-Systeme wie ChatGPT dreht, ist dieser Artikel eher ein Argument für den Standpunkt von @faust .

Und schaut man sich dann noch die Einschränkungen an, die die Wissenschaftler in dem Paper machen, dass @faust zitiert, dann sieht es kaum so aus, als ob KI in den nächsten Jahren im Bereich Logik eine Konkurenz für den Menschen wird.

Wenn man einfach nur aus Messdaten Regeln ableitet, dann erhält man so aber lediglich Aussagen über Korrelation aber nicht zwingend über kausale Zusammenhänge. Es können noch irgendwelche Einflüsse auf die Messdaten wirken, welche die KI nicht kennt und für die sie keine Messdaten hat. Daher ist die KI immer auf einen Menschen angewiesen, der darauf achten muss, ihr quasi alle relevanten Informationen zu haben.

1 „Gefällt mir“

Das gilt ja generell für die Auswertung von (z.B. im Rahmen einer Studie erhobenen) Daten.
Die Frage ist: Wem fallen andere Erklärungsmuster schneller auf? Dem Menschen oder ein KI, welche die Daten auf Unregelmäßigkeit untersucht?

Die Erfahrung gerade im Bereich Big Data zeigt doch sehr deutlich, dass gerade KI gut darin ist, in einer riesigen Datenmenge Zusammenhänge zu entdecken, die dem Menschen bisher nicht aufgefallen sind. Deshalb wird der Einsatz von KI im Bereich „Überwachungstechnologie“ ja auch so kritisch beäugt.

Wir müssen vielleicht wirklich stärker eingrenzen, worüber wir diskutieren.
In allen Bereichen, in denen eine KI Arbeitsplätze ersetzen kann, werden immer auch menschliche Arbeitsplätze verbleiben. Es geht nie darum, dass die KI sämtliche Arbeitsplätze restlos ersetzt.

Es geht eher darum, dass die KI die einfacheren Aufgaben dieser Bereiche so schnell und überzeugend erledigt, dass man statt 100 Mathematikern in Zukunft nur noch 10 braucht, die die Arbeit der KI überwachen und eventuell hoch-spezialisierte Tätigkeiten erledigen, an denen die KI (noch) scheitert.

Auch im Bereich der Justiz z.B. ist es nicht so, dass Richter und Anwälte generell wegfallen würden, sondern eher darum, dass schon jetzt KI-generierte Textbausteine maßgebliche Arbeit erledigen und deshalb ein Anwalt oder Richter viel mehr Fälle erledigen kann als zuvor, wodurch natürlich Arbeitsplätze wegfallen (was in Anbetracht der überlasteten Justiz definitiv gewünscht ist!).

Es werden immer Menschen verbleiben, gerade in den Schlüsselfunktionen, aber das bedeutet nicht, dass eine KI nicht doch - je nach Bereich - zwischen 30 und 90% der Arbeitsplätze ersetzen kann.

Nur, so lange man die KI dahingehend beschränkt, dass man sie gezielt nicht zur eigenen Informationsfindung ermächtigt. Ohne „körperliche Komponente“ kann eine KI natürlich - selbst wenn man das zuließe - nur digitale Informationen einholen. Aber eine KI, die z.B. eigenständig zur Informationsgewinnung eine Online-Studie erstellt, durchführt und auswertet, wäre schon heute denkbar (bei aller berechtigten Kritik an Online-Studien, aber das ist ein anderes Thema).

1 „Gefällt mir“