Künstliche Intelligenz: Nur eine Blase?

Anknüpfend an

Es mehren sich in den letzten Wochen Zweifel, ob die Entwicklung von generativen Modellen letztlich zu dem führt, was sich alle im aktuellen Hype um KI erhoffen: eine zuverlässige Lösung. Ich verweise dazu auf zwei Artikel im Handelsblatt (leider hinter Paywall):

https://www.handelsblatt.com/technik/ki/ki-forscher-gary-marcus-ki-macht-die-welt-duemmer/100051364.html

https://www.handelsblatt.com/technik/ki/kuenstliche-intelligenz-goldman-und-sequoia-warnen-vor-platzen-der-ki-blase-01/100051529.html

Diese Artikel fassen die aktuellen Argumente gut zusammen:

Große Sprachmodelle, egal wie beliebt sie heute sind, bergen zu viele Risiken. Das größte Risiko ist Fehlinformation, ein weiteres sind Halluzinationen. Ein großes Sprachmodell ist ein probabilistisches Modell, das das wahrscheinlichste nächste Wort in einem Satz ausrechnet. Die Systeme sind erstaunlich gut im Nachahmen, aber wirklich schlau sind sie nicht. Manchmal ist die Antwort richtig, manchmal ist sie falsch. Vor allem: Wir können nicht vorhersagen, wann.

Die Fortschritte nehmen bei jeder neuen Modellvariante ab. Immer größere Modelle werden nicht den Heiligen Gral der künstlichen allgemeinen Intelligenz erreichen. Die Aussicht, dass ein mit immer mehr Daten gefüttertes Modell am Ende die AGI (Artificial General Intelligence) hervorbringt, ist unwahrscheinlich. Zum einen gibt es schlicht nicht genug gute Daten. OpenAI hat quasi das komplette Internet und noch viel mehr nach menschlichen Texten durchforstet und verschriftlicht jetzt sogar YouTube-Videos. Zum anderen bleibt es zweifelhaft, ob mehr Texte der KI-Entwicklung wirklich weiterhelfen: Menschen erstellen kausale Modelle, wie die Welt funktioniert. Generative KI tut das nicht, daher können wir ihr nicht wirklich vertrauen.

Die Investmentbank Goldman Sachs und der Wagniskapitalgeber Sequoia warnen jetzt vor einer gefährlichen Übertreibung – einer Blasenbildung: Nach deren Berechnungen müsste die KI-Industrie 600 Milliarden Dollar pro Jahr einnehmen, um die massiven Ausgaben für Hardware, darunter spezialisierte Chips und Rechenzentren, zu bezahlen. Dem stehen jedoch kaum Einnahmen in Form von Umsätzen gegenüber, die dank KI entstehen (der Jahresumsatz des Marktführers OpenAI lag zuletzt nur bei 3,4 Milliarden Dollar).

1 „Gefällt mir“

Was folgt daraus?

Jeder sollte Investments in KI-nahe Unternehmen als das behandeln, was es ist: Spekulation! Und daher höchstens einen kleinen Teil seines Vermögens darauf setzen.

Der folgende Gedanke findet sich nicht in den oben genannten Artikeln:

Ein jäher Absturz von OpenAI, Microsoft, Meta (Facebook), Alphabet (Google), Amazon, Apple, Nvidia & Co., deren Bewertungen derzeit den S&P 500 beeinflussen, könnte zu einem Börsencrash führen.

Der aktuelle Hype und die Aktienkursentwicklung der KI-nahen Unternehmen könnten sich als eine massive spekulative Blase herausstellen, der ein jäher Absturz, vor allem an den US- und den chinesischen Börsen, folgen könnte. Gleichzeitig würde die wirtschaftliche Hoffnung auf KI sich für viele Nicht-KI-Unternehmen zerschlagen, sodass auch deren Kurse absacken würden.

Inwieweit das zu einem weltweiten Börsencrash führen könnte, vermag ich letztlich nicht wirklich zu beurteilen. Laut Perplexitiy (ja, die Quelle ist nicht ohne Ironie):

Der MSCI World Index, der Aktien aus 23 Industrieländern umfasst, wird zunehmend von US-Unternehmen dominiert. Deren Anteil stieg von rund 50% in 2010 auf über 70% in 2024[8]. Viele der großen US-Tech-Unternehmen wie Microsoft, Apple, Alphabet, Amazon und Meta, die stark in KI investieren, machen einen bedeutenden Teil der Marktkapitalisierung des MSCI World aus[2].

Beim S&P 500 Index haben die sechs größten, vom KI-Boom beflügelten Indexaktien Microsoft, Apple, Nvidia, Alphabet, Amazon und Meta im zweiten Quartal 2024 um durchschnittlich 16% zugelegt. Damit verhalfen sie dem Gesamtindex zu einem Plus von 3,9%, obwohl die durchschnittliche Performance aller 500 Titel bei -3,1% lag[3]. Die zehn größten Unternehmen, darunter viele KI-Schwergewichte, repräsentieren inzwischen ein Drittel der Marktkapitalisierung des S&P 500[9].

Genaue prozentuale Anteile von KI-Unternehmen an Nasdaq Composite und Dow Jones Industrial Average werden in den Suchergebnissen nicht explizit genannt. Es ist aber davon auszugehen, dass auch diese Indizes aufgrund der hohen Gewichtung von Tech-Aktien einen signifikanten KI-Anteil aufweisen.

Insgesamt zeigt sich, dass KI-orientierte Unternehmen vor allem aus den USA die Zusammensetzung und Performance der großen Aktienindizes zunehmend prägen. Ihr überproportionales Wachstum führt dazu, dass sie einen steigenden Anteil an der Gesamtmarktkapitalisierung einnehmen. Genaue Prozentangaben sind aber schwierig, da eine klare Abgrenzung von KI-Unternehmen nicht immer möglich ist.

Quellen
[1] In KI-Aktien investieren: Top KI- und AI-Aktien und ETFs 2024 In KI-Aktien investieren: Top KI- und AI-Aktien und ETFs 2024
[2] MSCI World Index: Top 10-Unternehmen 2024 - Statista MSCI World Index: Top Unternehmen 2024 | Statista
[3] [PDF] Kapitalmarktbericht 1. Halbjahr 2024 KI - Fonds-Super-Markt.de https://www.fonds-super-markt.de/fileadmin/user_upload/News/Fondsgesellschaften/Flossbach_von_Storch/Flossbach_von_Storch_Kapitalmarktbericht_1._Halbjahr_2024.pdf
[4] Die 10 besten KI Aktien 2024 - LYNX KI Aktien: Die 10 besten Künstliche Intelligenz Aktien | LYNX
[5] Artificial Intelligence ETF: Welcher ist der Beste? - extraETF https://extraetf.com/de/theme/artificial-intelligence
[6] Die 7 besten Aktien im Moment - Quartz auf Deutsch Was sind derzeit die besten Aktien?
[7] Top KI-Aktien/AI-Aktien kaufen 2024 - Computer Bild Top KI-Aktien/AI-Aktien kaufen 2024: Investieren in die Zukunft - COMPUTER BILD
[8] Wankt der MSCI World? - 18 May 2024 - Euro - Readly https://de.readly.com/magazines/euro/2024-05-18/6641cc64c34c8e255b0a2a67
[9] Gelingt es Dividendentiteln 2024, aus dem Schatten der KI-Aktien zu … Gelingt es Dividendentiteln 2024, aus dem Schatten der KI-Aktien zu treten? | J.P. Morgan Asset Management
[10] Top 5 KI Aktien und ETFs in 2024 – Investieren in KI - Squarevest Top 5 KI Aktien und ETFs in 2024 – Investieren in KI

2 „Gefällt mir“

Ich denke was wir hier sehen ist das Tal der Enttäuschungen des (Gartner) Hype Zyklus.

Nach einer enormen Euphorie und einem sagenhaften Hype um ChatGPT und Co, in dessen Folge etliche riesige GPT-Modelle entstanden (allein beim Leaderboard der Chatbot Arena gibt es mittlerweile 115 Modelle), realisieren viele was Experten schon immer gesagt haben - die Modelle sind unheimlich stark und in manchem auch stärker als Menschen, aber besitzen keine echte Intelligenz.

Da wir zuvor so hohe Erwartungen in KI ausgebildet haben, fällt uns diese Limitierung nun aber besonders stark auf und die Enttäuschung wirkt besonders stark. Dabei vergessen wir aber wie hilfreich die Modelle bei verantwortlicher Nutzung tatsächlich sein können.

So können wir mittlerweile Systeme bauen, die komplexe Texte mit dutzenden Seiten verarbeiten und die wichtigsten Infos zusammenfassen. Das funktioniert mittlerweile richtig gut, wie man an Chatbot-Suchmaschinen erkennen kann.

Als Software-Developer (im Bereich AI) greifen mir täglich GPT-Modelle unter die Arme indem sie entweder Code vervollständigen, mir erklären wie ein mir unbekanntes Framework funktioniert oder mir Skripte meiner Kollegen analysieren, die in Sprachen entwickeln, in denen ich nicht Zuhause bin.

Analysten brauchen bei uns nun keine tiefen SQL-Kenntnisse oder einen IT-ler um Daten für die Analyse vorzubereiten, sondern schreiben ihre Queries mithilfe von Databricks’ Genie einfach selbst. Selbst die Visualisierung kann Genie selbst übernehmen.

Es gibt auch weiterhin unendlich viele Anwendungsfälle für GPT und Co… Die Erkenntnis ist nur, dass KI den Menschen (vorerst) nicht zu 100% ersetzen wird - aber das war ohnehin nie realistisch. Stattdessen kann ich ihn aber viel effizienter machen. Das ist vergleichbar mit der Erfindung des Fließbandes oder des Roboter-Arms. Beides hat den Menschen nicht überflüssig gemacht, den Effekt seiner Arbeitskraft aber deutlich gesteigert.

Die Gefahr eines Crashs sehe ich dennoch auch. Das liegt aber weniger daran, dass KI nicht leistungsfähig sei. Sondern, dass die aktuell medial geäußerte Enttäuschung, aufgrund der zuvor übertriebenen Euphorie, gerade völlig übertrieben wirkt. Wirtschaft ist halt zu großen Teilen Psychologie.

9 „Gefällt mir“

Ein Beispiel sind „kreative“ Texte. Ich nutze es gelegentlich für Marketingzwecke.

Problem ist ja eher das Chat GPT oder Bard Texte eher über Wahrscheinlichkeiten generieren. Je nach Prompt kann man da etwas skalieren, bewegt sich aber meist zwischen dröge-langweilig (was in vielen Fällen ausreichend ist) und sehr überzogen-schrill (was man kaum gebrauchen kann).

Es fehlt da systembedingt jegliche sprachliche Kreativität. Da ist der Mensch tatsächlich noch voraus.

Ich würde sagen, dass Werbetexte einfach out-of-scope der meisten Modelle sind.

Würde ich ein Foundation Modell auf Werbetexten nachtrainieren, dann würde da vielleicht auch was brauchbares rauskommen. Interessant wäre auch wie die Kreativität auf englisch aussieht. Ich nutze ChatGPT meist auf englisch, bspw. oft für das generieren von Akronymen von Projektnamen. Ich beschreibe also worum es geht und gebe Regeln für das Akronym (zum Beispiel Überbegriffe) vor. Und ein paar Minuten später habe ich einen Projektnamen, auf den ich (bin eher technisch kreativ, nicht sprachlich) nicht gekommen wäre.

Anyway, ChatGPT, Bard und Co sind eher als rationale Assistenten angelegt (tunebar durch die Temperatur des Modells). Das ist eigentlich nicht ihr Verwendungszweck.

Das Schlimme ist, selbst wenn es eine Crash geben sollte, der richtig Geld vernichtet und bei diversen Firmen Leute entlassen werden müssten, selbst dann werden beim nächsten Tech-Hype wieder alle drauf springen.

Aus meiner Chemie Branchen Blase kann ich berichten, dass die Blase im Prinzip schon geplatzt ist und AI (oder KI) nur noch als Buzz Word genutzt wird.
Das Maschinen- oder Prozesslearning läuft zwar noch, aber der Effekt bzw. Effizienzsteigerungen (Ausbeute und Anlagenverfügbarkeit) ist minimal. Das liegt aber auch daran, dass solche Prozesse schon nahe am physischen Maximum laufen und damit kaum noch etwas zu optimieren ist.
Das Investment ist darum stark zurückgefahren worden und wird wahrscheinlich auslaufen.

Wo es wohl leichte Effekte gibt, ist bei ERP Systemen und deren Automatisierung. Da bin ich aber nicht wirklich drin.

1 „Gefällt mir“

Ich setze da viel Hoffnung in die Small Language Models, die auf spezifische Fälle trainiert werden. Bisher ist leider nur IBM auf diesem Zug, aber auch Microsoft und Google haben den Bedarf verstanden, wie ich im letzten Austausch bei uns gesehen habe.
Das wird auch deutlich kosteneffizienter, wenn ich diese Modelle laufen lassen möchte. Bisher sehe ich die Kosten für die notwendigen Tokens bei den LLMs als den eigentlichen Blocker in den Business Cases, die ich betreue.

EDIT: grammatikalische Korrektur

1 „Gefällt mir“

Durch die Foundation Models (ChatGPT, Gemini etc), vorher bekannt als Large Language Models (LLM), ist sicher ein Hype entstanden, weil es zum ersten Mal möglich war, mit Sprache so zu interagieren, so dass das Bestehen des Touring-Tests nah erschien.

Allerdings bin ich weit davon entfernt, von einem Platzen zu sprechen. Im Gegenteil, die Produktivsetzung hat in Geschäftsprozessen gerade erst begonnen. Diese sind zwar nicht spektakulär, aber werden sich inkrementell durch die Jobs „fressen“.

So nicht korrekt. Die Antworten sind derzeit nicht 100% erklärbar, aber durch Technologien wie RAG, Document Preprocessing etc lässt sich das Verhalten und die Antwortgenauigkeit sehr gut einschränken. Da sind wir derzeit in einer Lernphase.

Das ist und war niemals möglich mit der Transformer-Technologie. Wer damit gearbeitet hat, konnte das wissen, aber durch die Antworten ist halt ein Halo-Effekt entstanden. AGI stand in dem Kontext nie zur Debatte sondern war aus meiner Sicht eher eine narzisstische Angst der Menschen in der gesellschaftlichen Debatte.

100% Zustimmung. Ich arbeite mit verschiedenen Teams an Projekten, die genau das in Geschäftsprozessen nutzen. Dazu gehört zum Beispiel die Automatisierung von Eingangsrechnungen durch Sachkontenzuordnung und Steuerschlüssel (Mischung aus GenAI und PredAI), die Massenauswertung von Kundenemails, um zum Beispiel Beschwerdefälle und damit Prozessfehler zu analysieren, die automatische Beantwortung und Intenterkennung von Kundenanschreiben.

Auf der individuellen Ebene gibt es Brainstorming mit LLMs zu Themen, Coding Support für ITler, Zusammenfassung von Dokumenten, Gliederungsvorschläge, Textvorschläge etc, was die Effizienz am Tag zum Teil um 50% bei mir erhöht. Aber auch andere Benutzer in unserer Firma melden es. Dort haben wir ein eigenes FirmenGPT eingeführt, um die Datenschutzthemen vernünftig zu adressieren.

Ich glaube eher, dass in den unspektakulären Fällen die große Umwälzung liegt und viele Sachbearbeiter, die Zeug in ein System eingetippt haben, obsolet sein werden, sobald die produktive Einbettung in die Prozesse der Unternehmen gelöst ist.

Das stimmt, die LLMs verstehen überhaupt nicht den Kontext. Allerdings, wenn ich mal etwas böse sein darf, habe ich den Eindruck, dass Menschen oft in den Bereichen Mathematik, Naturwissenschaft oder auch Philosophie Schulwissen wiedergeben, aber wenn man einmal nachfragt, ob sie die zugrundelegenden Prinzipien verstanden haben, dann ist das oft erschreckend dünn und ich frage mich, wo dann der Unterschied zwischen den derzeitigen KIs und den Menschen liegen soll. Vielleicht der, dass die LLMs nicht eitel und narzisstisch sind? :wink:

Was gerade erst am Beginn steht und in Deutschland noch erstaunlich wenig Beachtung findet, ist die Erstellung von Inhalten. Suno oder Udio etwa beinahe produktiv im Bereich von Musik, Video ist gerade in den Kinderschuhen. In Hollywood gehen bereits die Aufträge für Filmmusik zurück.

Und wenn wir ehrlich sind, ist 80% der Musik in den Charts und 80% der Texte Gebrauchszeug ohne große Kreativität, das bereits jetzt von KI hervorragend nachgestellt werden kann. Und dass KI insgesamt gut angenommen wird, zeigt, dass auf Instagram viele Nutzer KI-Influencer genauso positiv aufnehmen wie echte.

TLDR: Vielleicht ist das Blasendenken wishful thinking, weil Deutschland in dem Bereich halt keine Rolle spielt?

2 „Gefällt mir“

Mir ist ein Projekt eines großen internationalen Chemieriesen bekannt, der ML und DL nutzt um instabile Betriebsformen seiner Reaktoren zu vermeiden oder gezielt herbeizuführen und im Griff zu behalten.

Beispielsweise kann man bei der Methanolsynthese in einen oszillierenden Betrieb kommen, der normalerweise sehr gefährlich ist. Wenn man den aber stabil halten kann winken signifikante energetische Verbesserungen des Prozesses.

An anderer Stelle werden die Prozesse optimiert, um beispielsweise Puffer-Tanks zwischen Upstreaming und Downstreaming kleiner wählen zu können.

Klar, wer überwiegend mit Batchkessel kocht hat von ML wenig Nutzen. Und in der Produktion von Pharmaka und ihrer Precursor ist Energieeffizienz oder Personalaufwand abseits von Ibuprofen und Co ohnehin egal, da die Preise durch Lizenzen oder Entwicklung dominiert werden.

In der Planung neuer Konti-Anlagen kann man hingegen eine Menge machen.

Da gab es aber schon in der Vergangenheit immense Optimierungen, oder? Die Produktion war ja schon immer prozess-stärker als Serviceprozesse oder „sprachlastige“ Branchen. Da gebe ich dir recht, durch die Generative KI-Welle ist da wahrscheinlich weniger zu holen.

Aber andere Branchen sind da in Deutschland erstaunlich weit zurück, und die KI-Welle wird dort parallel sehr starke Prozess-Streamliningwellen auslösen, auch, um die Datenqualität zu erhöhen, die wir für KI brauchen.

Erst mal müssen viele Firmen noch in die Cloud, um überhaupt die Rechenpower ausnutzen zu können. Da sind viele Branchen, gerade im Mittelstand, noch Jahre zurück, was dramatisch die Wettbewerbsfähigkeit Deutschlands untergräbt. Um so größer nun der Druck…

1 „Gefällt mir“

Genau, es handelt sich um ML (was meinst du mit DL?) aber nicht um AI, Neuronen Netze oder ähnliches. Das sind „stumpfe“ Algorithmen die Daten auswerten und Prognosen (Wahrscheinlichkeitsrechnungen) erstellen.

Hier ist die Frage, wo der Business Case ist? Aufwand vs Nutzen…

Ganz meine Rede. Wir verlangen von KI Lösungen oft einen Qualitätsgrad, den der durchschnittliche Mensch selbst nicht erreicht.

Nehmen wir das Thema Halluzinationen. Klar ist das bei LLMs ein riesen Problem. Aber gleichzeitig irren wir Menschen uns auch regelmäßig und aus meiner Sicht oft auch gravierender was Fakten angeht. Zumal es, wie du richtig schreibst, erfolgversprechende Ansätze zur Reduktion von Halluzinationen gibt.

Auch Kreativität ist für mich so ein Thema. Geh doch mal auf der Straße auf jemanden zu und frag ihn nach einem Werbeslogan für eine Flasche Biobrause mit dem Namen BioZisch. Da wird bei den allermeisten nichts kommen.

4 „Gefällt mir“

Aber wenn es diesen Qualitätsgrad nicht erreicht, wo ist dann der Business Case?
Ich spreche hier wirklich über AI/KI und nicht ML.

Soweit ich es verstehe, gibt es in der Literatur/ Marketing und Filmbranche ein größeres schon existierendes Anwendungsfeld, weil in diesen Feldern große Potentiale liegen, weil Audio und Virtuelles sehr gut imitiert werden können. Den Business Case sehe ich wohl.
Bei Büchern und Drehbüchern glaube ich noch an die Kreativität des Menschen bei neuen guten Stoffen. Bei Vorabend Soap Opera sehe ich die KI vorne.

Ich glaube du schmeißt die Begriffe etwas durcheinander. AI und KI bezeichnet das gleiche nur in unterschiedlichen Sprachen. ML ist nur ein Subset verschiedenster Technologien. Es gibt mit DL ein weiteres Subset.

DL = Deep learning.

Da gibt es durchaus Neuronen und Netze. Das ist die Grundlage von Transformer-Architektur, LSTM und Co…

Vielleicht ist das das Missverständnis? In der Chemie wird Gen AI nicht viel bringen, klar. Es gibt da zwar Ansätze bezüglich der Analyse von Dashboards, wodurch möglicherweise über schlechte oder gefährliche Anlagenbetriebspunkte informiert werden kann, aber sonst ist das Potenzial begrenzt.

Aber KI ist ja weit mehr als nur GenAI. KI ist nur der Oberbegriff für jede spielform regelbasierter, Machine Learning, Deep Learning, whatever Mechanismen. Und GenAI ist nur eine neue Spielform im Bereich Deep Learning.

Abseits von GenAI passiert aber auch eine Menge. Image Processing Technologien gehen gerade durch die Decke. Und bei Zeitreihenanalytik entwickelt man auch ständig neue Algorithmen.

Effizienz? Der Mensch kann bspw. nicht 10 Dashboards gleichzeitig im Blick behalten. Oder 20 Aufgaben gleichzeitig. 10 ML Prozesse kann ich hingegen easy gleichzeitig als Monitoringsystem laufen lassen.

Vermeidung von Bore Out: Der menschliche Mitarbeiter wird nicht 8h lang intensiv ein Live Dashboard auf Veränderungen beobachten können. Das klappt schon beim Wachdienst nicht. Ein Algorithmus kann das.

Erfassung komplexer Zustände: Ein ML Prozess kann easy 100 Eingangsparameter erfassen und daraus etwas ableiten. Der Mensch ist schon bei vierdimensionalen Problemen überfordert.

Es gibt noch etliches mehr. KI wird uns besser und effizienter machen. Sie wird uns nicht ersetzen.

Weniger Platzbedarf, günstiger in der Beschaffung, energetisch günstiger, günstigere Wartung.

Mal ehrlich, für mich (ausgebildeter Chemieingeneur) sind Pufferbehälter sowas wie Cheating. Die kommen zum Einsatz weil wir unsere Prozesse eben nicht ausreichend kennen und daher oft mismatches zwischen Up- und Downstream haben. Viel besser und effizienter wäre es auf die weitestgehend verzichten zu können.

Dazu benötigt es aber ein weit besseres Verständnis von Produkten und technischen Störungen. Bei letzterem sprechen wir dann über Predictive Maintainance und damit Anomaly Detection. Du siehst, es gibt so viel was die Chemie machen könnte. Sie macht es oft aber nicht weil sie stockkonservativ ist.

Ich habe mal in einem Betrieb eines international tätigen deutschen Pharma- und Agrarproduktproduzenten gearbeitet. Ich schlug vor eine Anlagenstrecke mal wissenschaftlich komplett durchzuoptimieren, da man viele Prozessschritte gar nicht verstand (bspw. ein Membranreaktor, bei dem man nicht sagen konnte wieviel der bei einem bestimmten Parameterset produziert).

Sinngemäße Antwort: Könnte man schon machen und haben wir bei einer anderen Anlage schon mal gemacht. Das hat uns 100.000 € pro Batch (ca. 20.000 € pro Tag) mehr Gewinn gebracht. Aber weißt du, unsere Anlagen sind so auch schon profitabel und wirtschaftlich abgeschrieben. Warum sollten wir da noch weiter optimieren?

Was soll man mit einer solchen Denke anfangen?

1 „Gefällt mir“

Richtig. Darum schreibe ich immer dieses genauso auf. Mir sind soviele Leute begegnet die KI und AI nicht gleich setzen.

Hier sind jedoch auch noch die Versicherungen im Weg. Predictive Maintainance ist so eine Sache. Wir haben bei uns Studien dazu durchführen lassen. Im Prinzip bringt es was bei wertvollen Assets, die bei Ausfall hohe Stillstandskosten verursachen. Bei Pumpen zum Beispiel ist es günstiger eine Standby Pumpe daneben zu stellen.

Ich kenne die genauen Inhalte nicht, aber hier stellt sich oft die Frage, ob am in schlecht laufende Anlagen investiert oder lieber in eine weitere Optimierung.

Stimme dir 100% zu! Da gibt es eine seltsame kognitive Dissonanz in der ganzen Diskussion.

Beispiel 1 für deinen ersten Fall mit den Halluzinationen: In einem Finance-Projekt habe ich mit einem Anbieter ein Produkt eingeführt, dass Eingangsrechnungen automatisch kontiert. Bestimmte Sachverhalte wie Papier, Notebooks etc sollten automatisiert auf das korrekte Sachkonto vorhergesagt werden.

Stellt sich heraus - das Trainingsmaterial ist zum Teil hochgradig falsch oder widerspüchlich, weil verschiedene SachbearbeiterInnen dieselben Sachverhalte auf inhaltlich verschiedene Sachkonten zugewiesen haben. Ist halt bei der Masse niemandem aufgefallen jahrelang, gab mehrere Nachkorrekturen, was man als „normal“ empfand. Als aber die KI wenige inkorrekte Vorhersagen machte, die korrigiert werden mussten, gab es Sorgen über die Qualität… :sweat_smile:

Beispiel 2 - Kreativität: Es wird gerne behauptet, wie „kreativ“ der Mensch sei, ständig „Neues“ erschaffe. Ich kann das in meiner Praxis null bestätigen. Wenn man versucht, durch Kreativitätstechniken neue Ideen zu generieren, ist das für viele ein harter Prozess. De Bono’s Laterales Denken hilft manchmal, aber es ist für die meisten schwer bis unmöglich, außerhalb ihrer gelernten Strukturen zu denken.

Es gibt diese kreativen Menschen, aber sie sind EINIGE WENIGE und in der Regel in ihrer Zeit hochgradig umstritten. Aber wir erhalten den Mythos vom Menschen als kreatives Wesen aufrecht, weil das Gegenteil für uns unerträglich wäre.

Und so schwankt die Diskussion zwischen Kleinreden der KI (unkreativ) und absurd hohen Anforderungen an die KI. Anforderungen, von denen die Durchschnittsmenschen selbst Lichtjahre entfernt sind…

6 „Gefällt mir“

Das Grundproblem von jeder KI Lösung ist, nach den Erfahrungen aus einem Betrieb eines Automobilzulieferers in dem ich arbeite, dass ohne eine gute Datengrundlage / Datenbank nichts funktioniert.

Und wenn man diese Datengrundlage nicht hat, muss man entweder langwierig durch Vereinheitlichung, Parametrisierung und teilweise selbst noch Digitalisierung, eine Datengrundlage bilden,oder eine KI erstmal darauf ansetzten, um aus einem Datenberg erstmal einzelne geordnete Daten zu ziehen, um mit diesen dann weiter als Grundlage arbeiten zu können.

1 „Gefällt mir“

Deshalb finde ich es schade, dass das Thema in der Lage nur relativ wenig Raum einnimmt, obwohl es unsere Gesellschaft nachhaltig verändern wird.

Ich befürchte, dass wir das in Deutschland genauso unterschätzen wie schon den ECommerce und das Internet zu Beginn des 21. Jahrhunderts. Und ehrlicherweise hat die Dotcom- Blase kaum Einfluss auf die revolutionäre Macht dieser Technologie gehabt.

Genauso wird es bei KI. Einzelne Akteure werden untergehen, aber das ist nur Teil der Evolution. Leider sind wir mal wieder nicht dabei.

2 „Gefällt mir“

Das wäre doch ein gutes Schlusswort für diese Diskussion, oder?

1 „Gefällt mir“