Künstliche Intelligenz: Nur eine Blase?

Zufällig habe ich vor vielen Jahren mal als Hardware-Entwickler in einer sehr kleinen Firma gearbeitet und genau solche Anleitungen, wie du sie beschreibst, auf Deutsch und Englisch für kleine Automatisierungskomponenten (für die Hutschiene) auch selbst geschrieben.

Diese Arbeit war aber sehr überschaubar, da ich einfach eine existierende Anleitung für ein ähnliches Gerät genommen habe und lediglich die Bilder und Textteile getauscht habe, die sich geändert hatten.
Der wichtigste Teil der Arbeit war, dass die Zahlen (z.B. Spannungsfestigkeit) gestimmt haben, was keine KI überprüfen kann, weil sie die richtigen Zahlen nicht kennt, und das die Logos für die eingehaltenen Normen stimmten. Und so wird es in anderen Firmen auch sein.

Texte oder Textbausteine, die man schon mal selbst geschrieben, geprüft und veröffentlicht hat, zu recyclen, ist mMn viel produktiver, als sich etwas Neues von der KI generieren zu lassen, das man dann erst einmal aufwendig auf Fehler und Halluzinationen prüfen muss.

Deswegen bin ich auch immer so skeptisch, wenn aus irgendwelchen möglichen use cases immer gleich die großen Produktivitäts-Gewinne abgeleitet werden.

Ausnahmsweise habe ich mir das Video mal (halb) angesehen, ist ja zumindest ein Uni-Prof, der da redet (Link zur Uni-Seite). Leider finden sich da wenig belastbare Zahlen. Diese Daten, aus einer KPMG Studie (Link zu KPMG) vom März diesen Jahres, sind da schon das aussagekräftigste (bei 2:00 min) :

Wenn man in der Original-Studie mal nachschaut, welche KI-Tools gemeint sind, dann wird da lediglich vom MS Copilot gesprochen. Das überzeugt mich eher wenig. Vielleicht geben die Manager das auch nur an, weil sie den MS Copilot ja monatlich bezahlen und sie diese Kosten irgendwie rechtfertigen müssen.

Diese zweite Grafik (bei 3:17 min), die eine Studie zitieren soll, finde ich noch weniger aussagekräftig und die Kategorien „mehr Aufgaben erledigen“ und „schneller arbeiten“ sind mMn synonym und müssten daher gleiche Werte enthalten:
ki_wiss_arbeit

Und in der dritten Grafik (bei 4:06 min), die eine Studie zitiert, wird im Bild nur noch von Potentialen gesprochen, auch wenn Herr Prof. Ahlemann das in seinen Video-Ausführungen unter den Tisch fallen lässt und eher so tut, als wäre das alles schon heute Realität:

Potentiale

Im restlichen Video geht es dann nur noch um einen historischen Rückblick. Und insgesamt ist die Faktenlage was die heutigen Produktivitätsgewinne angeht sehr dünn. Mich hat es nicht überzeugt.

edit:

Hast du da mal einen Link zu der Studie? :slight_smile:

Und genau dieses recyceln führt häufig zu unlesbaren Texten. Weil plötzlich ein Halbsatz in der Luft hängt, einem anderen Satz die Referenz fehlt etc.

Und hier hilft KI durchaus. Man hat einen Abschnitt und lässt den ändern und prüft den dann nochmal.

Fügt man einen Abschnitt einer italienischen Komponente mit grauenhaften Übersetzungen in der originalen Betriebsanleitung hinzu, dann kann man sich das original übersetzen lassen statt die schlechte Übersetzung als Grundlage zu nehmen etc.

In meinem Fall hat das die Qualität meiner Arbeit deutlich verbessert und das bei tendenziell sinkendem Aufwand. Und dabei schreibe ich die generierten Texte sogar nochmal etwas um.

2 „Gefällt mir“

Ja, hier:

(Alles, was es braucht, um sie zu finden: Ein Kommentar unter dem YouTube-Video, der zu einem FAZ-Artikel führt, der den Blogeintrag eines Studienautors verlinkt, auf dem schließlich auf die Studie verwiesen wird :upside_down_face:)

1 „Gefällt mir“

Na ja, dann müsste man ja auch die FAZ als unseriös bezeichnen, weil sie es wagt, sich auf eine nicht-peer-reviewte Studie zu beziehen. Die Studie kommt von Mitarbeitern der relativ renoommierten Havard Business School und ist eigentlich jetzt schon nicht mehr ganz taufrisch, weil die Daten aus dem Frühjahr 2023 stammen, als GPT-4 noch nicht lange veröffentlicht war. Man wird aufgrund der schnellen Entwicklung zu dem Thema kaum Studien finden, die gleichzeitig peer-reviewt UND einigermaßen aktuell sind (man erinnere sich an die Preprint-Papiere während der Corona-Pandemie). In den von Matder aus dem Video zitierten Balkengrafiken wird doch in Bezug auf Einsatz und Produktivitätspotentiale auch ganz klar nach Branchen aufgeschlüsselt.

Das ist wohl wahr, aber von einem Prof kann man schon sauberere Quellenarbeit verlangen, wenn der ein YouTube-Video veröffentlicht, finde ich. Zumindest sollten die Unzulänglichkeiten erwähnt werden und direkt die Paper verlinkt, auf die sich bezogen wird.

Allerdings. Dafür gibt es dann aber aber gar keine wissenschaftliche Quelle mehr, das ist nur Werbematerial des Consulting-Unternehmens Strategy&.

1 „Gefällt mir“

Was bedeutet „wirklich schlau“?

Lassen wir mal Sonderfragen wie die, ob Intelligenz/Klugheit Bewusstsein in einem spezifischen Sinne braucht (Searles Chinesisches Zimmer und angelagerte Diskussionen) oder irgendeine Art Embodiment, weg.

Dann kann man auf den Turing-Test und nachfolgende Varianten zurückgreifen.

Wenn man solche Maßstäbe anlegt, ist durchaus nicht mehr sicher, dass aktuelle AI ihnen nicht gerecht wird.

Und wer könnte schon behaupten, dass menschliche Gehirne Information gänzlich anders prozessieren.

Daher wäre ich mit dem Urteil, dass AI nicht schlau sei, vorsichtig.

1 „Gefällt mir“

Stimmt, aber da so eine Anleitung eh nochmal von einem Fachkollegen, wegen der Zahlenangaben, gegengelesen werden muss, fliegen solle Satzfragmente eigentlich immer schnell auf.
Deswegen sind ja fertige, veröffentliche Texte bzw. Textbausteine mMn so wertvoll. Weil da eben schon mal mehrere Leute drüber geguckt haben.

Aus ökonomischer Sicht würde ich sagen, wenn man sich immer alles neu von einer KI generieren lässt, wirft man als Firma damit irgendwo auch immer eigene Arbeitsleistung weg, die die eigenen Mitarbeiter schon mal (gegen Lohn) erbracht haben.

Danke für den Aufwand.
Besonders schön an dem Abstract, den du da zu Tage gefördert hast, ist die Tatsache, das es sich bei den Wissensarbeitern um Angestellte von Boston Consulting handelt.
Also Mitarbeiter einer Firma, die, als dieses Paper geschrieben wurde, ziemlich sicher schon alle möglichen Klienten (gegen Bezahlung) zu KI beraten hat. Ich würde sagen, unabhängige „Testobjekte“ sehen anders aus.

Ich hab grundsätzlich nichts gegen diese philosopgische Debatte, aber vielleicht sollten wir die in einem extra Thread führen, weil diese Diskussion im letzten Jahr ziemlich umfangreich wurde, wenn ich mich richtig erinnere.

Vielleicht kann @TilRq deinen Post dafür als Anfang nehmen. :slight_smile:

Wenn man das alles hier so liest, dann können wir uns ja glücklich schätzen, dass kein deutsches Unternehmen in relevanten Maße an KI-Modellen arbeitet. Das wir da nicht mitmachen, wird unser großer Wettbewerbsvorteil in der Zukunft sein.

Die anderen können sich da mal schön verzetteln während wir Gasturbinen und Verbrennermotoren perfektionieren.

2 „Gefällt mir“

Daher sollte die Lösung auch eher lauten, ein LLM mit bestehenden alten Text-Lösungen zu kombinieren. Ob RAG oder Fine Tuning, beides ist möglich um die alte Arbeit weiter zu nutzen, aber besser und universeller einsetzbar zu machen.

Technisch ist eine Menge möglich. Quasi wöchentlich kommen neue Paper mit hochinteressanten Ansätzen heraus um bestehende Probleme zu lösen. Das Potenzial von LLMs als Assistenz ist immens groß.

Möglicherweise sehen das hier einige noch nicht weil LLMs aktuell noch nicht den Enduser-Fokus haben. Aktuell braucht man gute IT Kenntnisse oder eine IT Abteilung, um brauchbare Anwendungen um die LLMs herum zu bauen.

1 „Gefällt mir“

Jeder eben wie er kann.
Schuster bleib bei deinen Leisten sag ich immer.

Wenn ich mir ansehe was wir für Betriebsanleitungen bekommen, und das sind welche von Firmen mit einer Hand voll Mitarbeitern bis hin zu solchen mit mehreren hundert Mitarbeitern, dann klappt das offensichtlich aktuell nicht.

Es geht nicht darum immer alles neu zu machen sondern darum sich bei den Änderungen Hilfe zu holen. Der Kollege der querliest ist meist keine gute Hilfe. KI für den Fließtext schon.

Wenn der Kollege vom Fach dann den Fokus auf technische Details hat, dann ist die Wahrscheinlichkeit, dass er dort Fehler auch wirklich findet auch größer als wenn der Kollege 100 Seiten Text durcharbeiten muss von denen 80 gar nicht oder nur minimal verändert sind und nur 20 Seiten Anpassungen bekommen haben. Der Kollege weiß ja nur nicht wo diese sind.

Wenn nur Texte auf Anweisung umgeschrieben werden, dann dürfte da auch das Halluzinieren kaum ein Problem sein.

1 „Gefällt mir“

Die Geschichte wiederholt sich leider seit 30 Jahren:

  • Das mit den PCs wird sich nicht durchsetzen (80er Jahre → nach und nach steigen alle deutschen Hersteller aus, widerstrebend halten die Maschinen Einzug)
    . Mobiltelefone brauchen wir nicht (-> nach und nach steigen alle deutschen Hersteller aus (Siemens), mit mehreren Jahren Verzug im Verhältnis zum Ausland halten Mobiltelefone Einzug)
  • Das mit dem Internet ist eine Blase, ECommerce wird sich nicht durchsetzen (-> Versandhäuser mit Katalogen brechen ein, Quelle wird noch 2014 oder so staatlich gestützt, um den letzten Printkatalog rauszubringen vor der Pleite :rofl:; → kein relevanter Spieler aus Deutschland)
  • Social Media: Gefährlich, gefährlich. → mit Xing geht bald der letzte deutsche (lokale) Spieler über die Wupper
  • Cloud Computing: Datenschutz! Datenschutz! Datenschutz!

Ergebnis: SAP ist der einizige Anbieter im Bereich Software/Computing von Rang, und auch die müssen jetzt entlassen.

Jetzt eben KI. Es ist tragisch, aber Deutschland hat seit 1980 nichts ökonomisch Relevantes zu modernen Paradigmenwechseln beigetragen. Das konnte man sich auch leisten, weil die Klassiker „Auto, Chemie, Maschinenbau“ auch noch funktionierten. Das ist aber nicht mehr der Fall.

Zieht sich meiner Meinung nach wie ein roter Faden durch seit 40 Jahren. Es gibt Gründe, warum wir nur noch die Konsumenten, aber nicht mehr die Hersteller sind.
KI ist der letzte Absprung in die neuen technologiegetriebenen Arbeitsweisen, wenn wir den nach den vorherigen Phasen auch noch verpassen, dann weiß ich ehrlicherweise nicht, wo wir nennenswerte moderne Unternehmen und Arbeitsplätze der Zukunft hier haben wollen.

4 „Gefällt mir“

Es ist nicht die Zeit der Studien, sondern die Zeit des Implementierens und Optimierens. Genau diese Haltung lässt uns hier zurückfallen, während andere machen.

Wie mal jemand gesagt hat: Deutschland macht eine Innovation dann, wenn sie ISO-zertifiziert ist. Leider hat sich in den letzten 40 Jahren, dass wir dadurch immer mehr den Anschluss an die moderne Welt verloren haben.

Wenn es also in 3 Jahren die Paper gibt, fangen wir mit KI an und konsumieren dann die Produkte, die andere erstellt haben, denn währenddessen nutzen alle schon diese Produkte. Wertschöpfung entsteht hier so nicht mehr.

Mit deiner Logik werden wir bei KI dem Paydirekt/Giropay-Muster folgen:
2000 wird Paypal (neu) gegründet als Bezahldienst. 15 Jahre später kriegen die Deutschen mit, dass Konsumenten das ja (auch in Deutschland) annehmen. Dann wollen sie mit deutschen Methoden (total innovativ!!!) eine Alternative aufbauen (ab 2015). 2024 wird das zugunsten einer europäischen Lösung begraben, weil die Kunden halt lieber das Original nutzen, dass sich auf allen Plattformen ALS STANDARD durchgesetzt hat.

Was bleibt? Den Umsatz machen die anderen, die Deutschen grummeln ein wenig über Datenschutz und Geheimdiensteinsicht in die Daten und den CO2-Footprint der Server und den Gefahren von Technologien allgemein. Konsumieren tun sie die Dienste aber trotzdem.

Bei KI ist die Entwicklungskurve aber auf Speed im Verhältnis zu den Technologien vorher, Projekte transformieren die Arbeitsweisen. Wer hier nicht früh anfängt, kann später nicht einfach von hinten an die Spitze springen.

1 „Gefällt mir“

Ich kann mich noch gut erinnern, als Toyota 1997 den ersten Prius auf dem Markt brachte, ein Hybrid.

Die deutschen Hersteller klopften sich auf die Schenkel damals. „Autos mit Strom. Jetzt spinnen die Japaner völlig. Hinterher lassen die den Verbrenner ganz weg und fahren nur mit Strom. Lächerlich!“

Die heutigen deutschen Manager der Automobilen Industrie würden das wohl etwas anders formulieren.

Kann es sein das wir Deutschen noch so arrogant sind das wir glauben, wenn wir es nicht erfunden und auf den Markt gebracht haben, kann es nicht gut sein?
Und wir statt innovativ zu sein lieber nach Gründen suchen warum sowas dann nicht gut sein darf?

2 „Gefällt mir“

Zumindest bei den Handys kann ich sagen, dass die Deutschen nicht von sich aus ausgestiegen sind. Apple hat den Markt revolutioniert und die deutschen Handys wollte plötzlich keiner mehr haben. Es gab sogar noch einzelne Versuche, aber die waren entweder zu teuer oder hoben sich zu wenig von der Masse ab oder beides

Und so von der eigenen Erfindung überzeugt, dauerte es lange bis Toyota das erste Elektroauto produzierte, das dann dem Markt hinterhinkte. Nun setzt Toyota auf Wasserstoff und ist in finanziellen Schwierigkeiten.

Ich glaube eher, dass wir nicht mehr die Innovationsmacht haben, Ideen weiterzuentwickeln und zu verbessern. Und das ist ein Bildungsproblem, das nicht mehr Kreativität fordert, sondern auswendig lernen und nachplappern.
Wer mit dem Strom schwimmt, kommt bei uns eben am weitesten.
Eine Investition in Deutschland muss sich lohnen.
Eine Investition in den USA ist eine von Tausend, von denen sich eine lohnen muss.
Darum haben es in den USA Start-Ups leicht und in Deutschland schwer.

1 „Gefällt mir“

Ja, ich denke das trifft es auf den Punkt.

Innovation scheint nicht mehr weit oben auf der Agenda zu stehen. Ein Zeichen auch für mangelnde Veränderungsbereitschaft?

2 „Gefällt mir“

Naja. Als jemand, der gerade in dem Bereich auf Jobsuche ist, kann ich jedenfalls nicht sagen, dass es da gerade an Stellen mangelt. Es ist eher so, dass viele sich wie ein Bullshit-Bingo lesen, in dem irgendwelche vagen Use Cases herbeifantasiert werden, um von dem Hype zu profitieren.

2 „Gefällt mir“

Wahrscheinlich arbeitest du da auch in einem anderen Umfeld bzw. anderer Firmengröße als ich. Mir ging’s auch nur mal darum einen spezifischen vermeintlichen Anwendungsfall (den ich mal hatte) genauer zu beleuchten.

Hast du auch Belege, dafür?

Das Internet gibt es grob seit den 80er, je nachdem wie man das genau definiert. Und von Anfang an gab es Firmen, sinnvolle Anwendungen, Enthusiasten (z.B. der CCC) und so weiter. Aber das fand größtenteils abseits der öffentlichen Wahrnehmung statt.
Erst Ende der 90er, als jeder mit einem Browser ins WWW (einer von vielen Internetanwendungen) konnte, da entstand der Hype, die dotcom-Blase mit ihren überzogen Erwartungen.

Bei dem aktuellen „KI-Hype“ ist es genauso. Maschine learning gibt es seit Jahrzehnten. Und auch Firmen und produktive Anwendungsfälle gibt es seit Jahren (lange vor chatgpt usw.). Aber das ist der breiten Masse auch verborgen geblieben.
Erst seit chatgpt, wo Jeder ohne besondere Kenntnisse ein LLM (eine von vielen Maschine learning Technologie) ausprobieren konnte, ist plötzlich der „KI-Hype“ da.

Was genau soll den Implementiert werden? KI-Anwendungen, die auf Chatgpt aufbauen? Prompt Engineering?
Soll Deutschland damit etwa technologische Neuerungen vorantreiben? Indem man die Blackbox Produkte einer Firma wie openai nutzt?
Oder was genau meinst du?

edit:
Für openai ist Chatgpt übrigens wohl auch noch ein Verlustgeschäft:

Also die unzureichenden Betriebsanleitungen bekommen wir von Lieferanten mit 5 Mitarbeitern ebenso wie von solchen mit 500 Mitarbeitern.

Ich glaube das Problem besteht letztlich solange es keine gesonderte Abteilung für solche Aufgaben gibt. Und selbst die könnte aber von der Arbeitserleichterung profitieren, insbesondere wenn es darum geht, dass Abschnitte über Zukaufteile eingefügt werden müssen.

Gerade Techniker neigen ja auch oft dazu Texte unnötig kompliziert zu schreiben. Alleine den Arbeitsschritt einen Text übersichtlicher zu strukturieren, auch mit Zwischenüberschriften hat mir aktuell hier einiges geholfen.

1 „Gefällt mir“

Die Technologieskepsis zu Zeiten der 80er Jahre hat der Christian Stöcker in „Nerd Attack“ hervorragend beleuchtet, sowohl anekdotisch, aber auch in der Analyse von Berichterstattung zu der Zeit. Empfehle ich als Quelle.
Bezüglich Hersteller: Thema der Woche: Für den deutschen PC-Markt gilt: They never come back - computerwoche.de). Das ist ein Artikel von 1998, der ein wenig die traurige Geschichte zusammenfasst und einst klangvolle Namen widergibt.
Nixdorf, Siemens…
Jetzt kann man einwenden, wir seien ja ein Hochlohnland, aber sorry, dass ist Japan auch und Toshiba, Fujitsu, Sony waren so lange erfolgreiche Marken, so lange der PC selbst noch die Leading Platform war.
Über Gaming-Plattformen will ich übrigens gar nicht reden, ein Millardenumsatz. Gut, da war Deutschland noch nie führend.

Fakt: Deutschland konnte sich nicht international als Player auf Augenhöhe etablieren, andere Industrienationen schon.

Analog wie oben. Es hatte ja niemand Siemens daran gehindert, sich umzustellen und wie Samsung sich als alternativer Player zu etablieren. Es klingt für mich immer so, dass von irgendeinem ausländischen Hersteller Neuerungen kommen und die Deutschen dann erst mal wie vom Donner gerührt sind und dann sagen, „ja dann nicht“.

Gerne genommen, das Argument. ArpaNet etc. Und die Dotcom-Blase kann ich nicht mehr hören, weil sie, entschuldigung, im großen Bild gänzlich irrelevant ist.
Seit 2000 sind durch die Demokratisierung der Technologie ganze Geschäftsmodelle umgewälzt worden. E-Commerce fing an, dann kam Social Media und als dritte Stufe (oder parallel) die Plattformökonomie. Das Smartphone als kongeniales Gerät und Cloud Computing als Hyperskalierer der Entwicklung war die perfekte Konvergenz, um neue Geschäftsmodelle zu bauen und alte umzustürzen.

Welches Unternehmen aus Deutschland arbeitet auf Augenhöhe in den Bereichen:

  • Cloud Computing
  • Plattformökonomie
  • Bezahlsysteme
  • Social Media
  • Softwareentwicklung (jaja, SAP, aber die gab es schon vorher)
  • Game Studios
  • Augmented/Virtual Reality
  • Robotik (Meine Firma kauft sich gerade Robotik aus den USA ein, übrigens auch KI)

Und ich meine auf Augenhöhe, nicht ein kleines Startup. Etwa auf dem Niveau der Autobauer, die lange die Arbeitsplätze gesichert haben?
Willst du wirklich ernsthaft bestreiten, dass wir in allen wesentlichen Bereichen nur noch Konsument sind und bestenfalls mit Kooperationen im Ausland weiterkommen?

Habe ich oben schon geschrieben.

Absolut irrelevant. Das hat amazon auch, weil die Investoren und Bezos verstanden haben, dass der Aufbau der globalen Infrastruktur und die Investition in die Zukunft am Anfang mit Verlusten verbunden sein wird.
Wichtiger ist, als erster die Standards zu setzen und das Knowhow aufzubauen.

Ja klar. Viele Unternehmen gehen ja jetzt auch erst mit 10 Jahren Verspätung in die Cloud. Außerdem wird noch gewartet, bis das Ganze sich wirklich als „real“ erwiesen hat. :rofl:

Wird es Dips geben? Aber sicher. Es wird 100% zu Marktbereinigungen kommen, wie bei allen Emerging Technologies. Das gab es beim Auto auch. Aber zu sagen, dass die Kutsche viel besser ist, weil ja 2 Automobilhersteller Verluste machen, klingt für mich wie das Pfeifen im Walde.

1 „Gefällt mir“