Lassen wir mal Sonderfragen wie die, ob Intelligenz/Klugheit Bewusstsein in einem spezifischen Sinne braucht (Searles Chinesisches Zimmer und angelagerte Diskussionen) oder irgendeine Art Embodiment, weg.
Stimmt, aber da so eine Anleitung eh nochmal von einem Fachkollegen, wegen der Zahlenangaben, gegengelesen werden muss, fliegen solle Satzfragmente eigentlich immer schnell auf.
Deswegen sind ja fertige, veröffentliche Texte bzw. Textbausteine mMn so wertvoll. Weil da eben schon mal mehrere Leute drüber geguckt haben.
Aus ökonomischer Sicht würde ich sagen, wenn man sich immer alles neu von einer KI generieren lässt, wirft man als Firma damit irgendwo auch immer eigene Arbeitsleistung weg, die die eigenen Mitarbeiter schon mal (gegen Lohn) erbracht haben.
Danke für den Aufwand.
Besonders schön an dem Abstract, den du da zu Tage gefördert hast, ist die Tatsache, das es sich bei den Wissensarbeitern um Angestellte von Boston Consulting handelt.
Also Mitarbeiter einer Firma, die, als dieses Paper geschrieben wurde, ziemlich sicher schon alle möglichen Klienten (gegen Bezahlung) zu KI beraten hat. Ich würde sagen, unabhängige „Testobjekte“ sehen anders aus.
Ich hab grundsätzlich nichts gegen diese philosopgische Debatte, aber vielleicht sollten wir die in einem extra Thread führen, weil diese Diskussion im letzten Jahr ziemlich umfangreich wurde, wenn ich mich richtig erinnere.
Vielleicht kann @TilRq deinen Post dafür als Anfang nehmen.
Wenn man das alles hier so liest, dann können wir uns ja glücklich schätzen, dass kein deutsches Unternehmen in relevanten Maße an KI-Modellen arbeitet. Das wir da nicht mitmachen, wird unser großer Wettbewerbsvorteil in der Zukunft sein.
Die anderen können sich da mal schön verzetteln während wir Gasturbinen und Verbrennermotoren perfektionieren.
Daher sollte die Lösung auch eher lauten, ein LLM mit bestehenden alten Text-Lösungen zu kombinieren. Ob RAG oder Fine Tuning, beides ist möglich um die alte Arbeit weiter zu nutzen, aber besser und universeller einsetzbar zu machen.
Technisch ist eine Menge möglich. Quasi wöchentlich kommen neue Paper mit hochinteressanten Ansätzen heraus um bestehende Probleme zu lösen. Das Potenzial von LLMs als Assistenz ist immens groß.
Möglicherweise sehen das hier einige noch nicht weil LLMs aktuell noch nicht den Enduser-Fokus haben. Aktuell braucht man gute IT Kenntnisse oder eine IT Abteilung, um brauchbare Anwendungen um die LLMs herum zu bauen.
Wenn ich mir ansehe was wir für Betriebsanleitungen bekommen, und das sind welche von Firmen mit einer Hand voll Mitarbeitern bis hin zu solchen mit mehreren hundert Mitarbeitern, dann klappt das offensichtlich aktuell nicht.
Es geht nicht darum immer alles neu zu machen sondern darum sich bei den Änderungen Hilfe zu holen. Der Kollege der querliest ist meist keine gute Hilfe. KI für den Fließtext schon.
Wenn der Kollege vom Fach dann den Fokus auf technische Details hat, dann ist die Wahrscheinlichkeit, dass er dort Fehler auch wirklich findet auch größer als wenn der Kollege 100 Seiten Text durcharbeiten muss von denen 80 gar nicht oder nur minimal verändert sind und nur 20 Seiten Anpassungen bekommen haben. Der Kollege weiß ja nur nicht wo diese sind.
Wenn nur Texte auf Anweisung umgeschrieben werden, dann dürfte da auch das Halluzinieren kaum ein Problem sein.
Die Geschichte wiederholt sich leider seit 30 Jahren:
Das mit den PCs wird sich nicht durchsetzen (80er Jahre → nach und nach steigen alle deutschen Hersteller aus, widerstrebend halten die Maschinen Einzug)
. Mobiltelefone brauchen wir nicht (-> nach und nach steigen alle deutschen Hersteller aus (Siemens), mit mehreren Jahren Verzug im Verhältnis zum Ausland halten Mobiltelefone Einzug)
Das mit dem Internet ist eine Blase, ECommerce wird sich nicht durchsetzen (-> Versandhäuser mit Katalogen brechen ein, Quelle wird noch 2014 oder so staatlich gestützt, um den letzten Printkatalog rauszubringen vor der Pleite ; → kein relevanter Spieler aus Deutschland)
Social Media: Gefährlich, gefährlich. → mit Xing geht bald der letzte deutsche (lokale) Spieler über die Wupper
Ergebnis: SAP ist der einizige Anbieter im Bereich Software/Computing von Rang, und auch die müssen jetzt entlassen.
Jetzt eben KI. Es ist tragisch, aber Deutschland hat seit 1980 nichts ökonomisch Relevantes zu modernen Paradigmenwechseln beigetragen. Das konnte man sich auch leisten, weil die Klassiker „Auto, Chemie, Maschinenbau“ auch noch funktionierten. Das ist aber nicht mehr der Fall.
Zieht sich meiner Meinung nach wie ein roter Faden durch seit 40 Jahren. Es gibt Gründe, warum wir nur noch die Konsumenten, aber nicht mehr die Hersteller sind.
KI ist der letzte Absprung in die neuen technologiegetriebenen Arbeitsweisen, wenn wir den nach den vorherigen Phasen auch noch verpassen, dann weiß ich ehrlicherweise nicht, wo wir nennenswerte moderne Unternehmen und Arbeitsplätze der Zukunft hier haben wollen.
Es ist nicht die Zeit der Studien, sondern die Zeit des Implementierens und Optimierens. Genau diese Haltung lässt uns hier zurückfallen, während andere machen.
Wie mal jemand gesagt hat: Deutschland macht eine Innovation dann, wenn sie ISO-zertifiziert ist. Leider hat sich in den letzten 40 Jahren, dass wir dadurch immer mehr den Anschluss an die moderne Welt verloren haben.
Wenn es also in 3 Jahren die Paper gibt, fangen wir mit KI an und konsumieren dann die Produkte, die andere erstellt haben, denn währenddessen nutzen alle schon diese Produkte. Wertschöpfung entsteht hier so nicht mehr.
Mit deiner Logik werden wir bei KI dem Paydirekt/Giropay-Muster folgen:
2000 wird Paypal (neu) gegründet als Bezahldienst. 15 Jahre später kriegen die Deutschen mit, dass Konsumenten das ja (auch in Deutschland) annehmen. Dann wollen sie mit deutschen Methoden (total innovativ!!!) eine Alternative aufbauen (ab 2015). 2024 wird das zugunsten einer europäischen Lösung begraben, weil die Kunden halt lieber das Original nutzen, dass sich auf allen Plattformen ALS STANDARD durchgesetzt hat.
Was bleibt? Den Umsatz machen die anderen, die Deutschen grummeln ein wenig über Datenschutz und Geheimdiensteinsicht in die Daten und den CO2-Footprint der Server und den Gefahren von Technologien allgemein. Konsumieren tun sie die Dienste aber trotzdem.
Bei KI ist die Entwicklungskurve aber auf Speed im Verhältnis zu den Technologien vorher, Projekte transformieren die Arbeitsweisen. Wer hier nicht früh anfängt, kann später nicht einfach von hinten an die Spitze springen.
Ich kann mich noch gut erinnern, als Toyota 1997 den ersten Prius auf dem Markt brachte, ein Hybrid.
Die deutschen Hersteller klopften sich auf die Schenkel damals. „Autos mit Strom. Jetzt spinnen die Japaner völlig. Hinterher lassen die den Verbrenner ganz weg und fahren nur mit Strom. Lächerlich!“
Die heutigen deutschen Manager der Automobilen Industrie würden das wohl etwas anders formulieren.
Kann es sein das wir Deutschen noch so arrogant sind das wir glauben, wenn wir es nicht erfunden und auf den Markt gebracht haben, kann es nicht gut sein?
Und wir statt innovativ zu sein lieber nach Gründen suchen warum sowas dann nicht gut sein darf?
Zumindest bei den Handys kann ich sagen, dass die Deutschen nicht von sich aus ausgestiegen sind. Apple hat den Markt revolutioniert und die deutschen Handys wollte plötzlich keiner mehr haben. Es gab sogar noch einzelne Versuche, aber die waren entweder zu teuer oder hoben sich zu wenig von der Masse ab oder beides
Und so von der eigenen Erfindung überzeugt, dauerte es lange bis Toyota das erste Elektroauto produzierte, das dann dem Markt hinterhinkte. Nun setzt Toyota auf Wasserstoff und ist in finanziellen Schwierigkeiten.
Ich glaube eher, dass wir nicht mehr die Innovationsmacht haben, Ideen weiterzuentwickeln und zu verbessern. Und das ist ein Bildungsproblem, das nicht mehr Kreativität fordert, sondern auswendig lernen und nachplappern.
Wer mit dem Strom schwimmt, kommt bei uns eben am weitesten.
Eine Investition in Deutschland muss sich lohnen.
Eine Investition in den USA ist eine von Tausend, von denen sich eine lohnen muss.
Darum haben es in den USA Start-Ups leicht und in Deutschland schwer.
Naja. Als jemand, der gerade in dem Bereich auf Jobsuche ist, kann ich jedenfalls nicht sagen, dass es da gerade an Stellen mangelt. Es ist eher so, dass viele sich wie ein Bullshit-Bingo lesen, in dem irgendwelche vagen Use Cases herbeifantasiert werden, um von dem Hype zu profitieren.
Wahrscheinlich arbeitest du da auch in einem anderen Umfeld bzw. anderer Firmengröße als ich. Mir ging’s auch nur mal darum einen spezifischen vermeintlichen Anwendungsfall (den ich mal hatte) genauer zu beleuchten.
Hast du auch Belege, dafür?
Das Internet gibt es grob seit den 80er, je nachdem wie man das genau definiert. Und von Anfang an gab es Firmen, sinnvolle Anwendungen, Enthusiasten (z.B. der CCC) und so weiter. Aber das fand größtenteils abseits der öffentlichen Wahrnehmung statt.
Erst Ende der 90er, als jeder mit einem Browser ins WWW (einer von vielen Internetanwendungen) konnte, da entstand der Hype, die dotcom-Blase mit ihren überzogen Erwartungen.
Bei dem aktuellen „KI-Hype“ ist es genauso. Maschine learning gibt es seit Jahrzehnten. Und auch Firmen und produktive Anwendungsfälle gibt es seit Jahren (lange vor chatgpt usw.). Aber das ist der breiten Masse auch verborgen geblieben.
Erst seit chatgpt, wo Jeder ohne besondere Kenntnisse ein LLM (eine von vielen Maschine learning Technologie) ausprobieren konnte, ist plötzlich der „KI-Hype“ da.
Was genau soll den Implementiert werden? KI-Anwendungen, die auf Chatgpt aufbauen? Prompt Engineering?
Soll Deutschland damit etwa technologische Neuerungen vorantreiben? Indem man die Blackbox Produkte einer Firma wie openai nutzt?
Oder was genau meinst du?
edit:
Für openai ist Chatgpt übrigens wohl auch noch ein Verlustgeschäft:
Also die unzureichenden Betriebsanleitungen bekommen wir von Lieferanten mit 5 Mitarbeitern ebenso wie von solchen mit 500 Mitarbeitern.
Ich glaube das Problem besteht letztlich solange es keine gesonderte Abteilung für solche Aufgaben gibt. Und selbst die könnte aber von der Arbeitserleichterung profitieren, insbesondere wenn es darum geht, dass Abschnitte über Zukaufteile eingefügt werden müssen.
Gerade Techniker neigen ja auch oft dazu Texte unnötig kompliziert zu schreiben. Alleine den Arbeitsschritt einen Text übersichtlicher zu strukturieren, auch mit Zwischenüberschriften hat mir aktuell hier einiges geholfen.
Die Technologieskepsis zu Zeiten der 80er Jahre hat der Christian Stöcker in „Nerd Attack“ hervorragend beleuchtet, sowohl anekdotisch, aber auch in der Analyse von Berichterstattung zu der Zeit. Empfehle ich als Quelle.
Bezüglich Hersteller: Thema der Woche: Für den deutschen PC-Markt gilt: They never come back - computerwoche.de). Das ist ein Artikel von 1998, der ein wenig die traurige Geschichte zusammenfasst und einst klangvolle Namen widergibt.
Nixdorf, Siemens…
Jetzt kann man einwenden, wir seien ja ein Hochlohnland, aber sorry, dass ist Japan auch und Toshiba, Fujitsu, Sony waren so lange erfolgreiche Marken, so lange der PC selbst noch die Leading Platform war.
Über Gaming-Plattformen will ich übrigens gar nicht reden, ein Millardenumsatz. Gut, da war Deutschland noch nie führend.
Fakt: Deutschland konnte sich nicht international als Player auf Augenhöhe etablieren, andere Industrienationen schon.
Analog wie oben. Es hatte ja niemand Siemens daran gehindert, sich umzustellen und wie Samsung sich als alternativer Player zu etablieren. Es klingt für mich immer so, dass von irgendeinem ausländischen Hersteller Neuerungen kommen und die Deutschen dann erst mal wie vom Donner gerührt sind und dann sagen, „ja dann nicht“.
Gerne genommen, das Argument. ArpaNet etc. Und die Dotcom-Blase kann ich nicht mehr hören, weil sie, entschuldigung, im großen Bild gänzlich irrelevant ist.
Seit 2000 sind durch die Demokratisierung der Technologie ganze Geschäftsmodelle umgewälzt worden. E-Commerce fing an, dann kam Social Media und als dritte Stufe (oder parallel) die Plattformökonomie. Das Smartphone als kongeniales Gerät und Cloud Computing als Hyperskalierer der Entwicklung war die perfekte Konvergenz, um neue Geschäftsmodelle zu bauen und alte umzustürzen.
Welches Unternehmen aus Deutschland arbeitet auf Augenhöhe in den Bereichen:
Cloud Computing
Plattformökonomie
Bezahlsysteme
Social Media
Softwareentwicklung (jaja, SAP, aber die gab es schon vorher)
Game Studios
Augmented/Virtual Reality
Robotik (Meine Firma kauft sich gerade Robotik aus den USA ein, übrigens auch KI)
Und ich meine auf Augenhöhe, nicht ein kleines Startup. Etwa auf dem Niveau der Autobauer, die lange die Arbeitsplätze gesichert haben?
Willst du wirklich ernsthaft bestreiten, dass wir in allen wesentlichen Bereichen nur noch Konsument sind und bestenfalls mit Kooperationen im Ausland weiterkommen?
Habe ich oben schon geschrieben.
Absolut irrelevant. Das hat amazon auch, weil die Investoren und Bezos verstanden haben, dass der Aufbau der globalen Infrastruktur und die Investition in die Zukunft am Anfang mit Verlusten verbunden sein wird.
Wichtiger ist, als erster die Standards zu setzen und das Knowhow aufzubauen.
Ja klar. Viele Unternehmen gehen ja jetzt auch erst mit 10 Jahren Verspätung in die Cloud. Außerdem wird noch gewartet, bis das Ganze sich wirklich als „real“ erwiesen hat.
Wird es Dips geben? Aber sicher. Es wird 100% zu Marktbereinigungen kommen, wie bei allen Emerging Technologies. Das gab es beim Auto auch. Aber zu sagen, dass die Kutsche viel besser ist, weil ja 2 Automobilhersteller Verluste machen, klingt für mich wie das Pfeifen im Walde.
Das sicherlich. Und der seltsame Wunsch, alles vorher abgeklärt zu haben, bevor man anfängt, etwas auszuprobieren. Da fehlt der Mut zum Unbekannten, zum Ausprobieren, auch zum Scheitern oder mal andere Wege zu gehen, wenn die anderen Wege nicht funktionieren. Die Freude am Spiel, am Experimentieren.
Und die Persistenz - dass es nicht immer die sofortige Gratifikation gibt oder das perfekte Lehrbuch, sondern sich mal durchbeißen durch Tun. Frustresistenz. Unsicherheit akzeptieren. Verantwortung übernehmen.
Es hat halt 40 Jahre gereicht, z.B. auf einem Verbrenner rumzuoptimeren und inkrementell immer noch mehr herauszuholen. Das ist ja auch sicheres Terrain. Aber Neues, zu dem es noch keine extensiven Studien und Lehrbücher gibt? Das ist gegen das deutsche Wesen, glaube ich.
Ein Beispiel, hier ein neues Papier zur Nutzung von LLMs von Google und Forschern der Uni Michigan vom 23.7.: https://arxiv.org/pdf/2407.16833
Es geht nicht darum, es zu verstehen, ich möchte nur sagen: Diese Paper sind sofort in der Praxis anwendbar und werden auch ausgetestet, indem man das unmittelbar umsetzt und die Architekturen an den Use Cases baut. Das ist natürlich Neuland und auch wir müssen das ständige „Nicht-Wissen“ aushalten. Sowohl die Entwickler, mit denen ich arbeite als auch ich selbst.
Das ist schon eine Herausforderung, deshalb kann ich verstehen, dass Menschen, die Sicherheit wollen, das nicht gut vertragen. Wir werden halt ständig mit dem konfrontiert, was wir nicht wissen und bauen unser Wissen parallel zum Tun auf.
Das ist nicht unanstrengend, zugegeben.
Das sicherlich. Ich denke aber, dazu kommt ein gewisses Vollkasko-Gefühl in der Gesellschaft. Es ging und geht uns ja immer gut. Und falls sich das ändert, dann wird man durch das soziale Netz aufgefangen. Menschen in Ländern, deren soziale Netze viel größere Maschenweiten haben, sind viel mehr gezwungen Risiken einzugehen, um nicht abgehängt zu werden.
Demgegenüber haben es Gründer mit innovativen Ideen außerdem sehr schwer Geldgeber in Deutschland zu finden. Und die berühmte Bürokratie macht es nicht leichter.
Wir sind also eine Gesellschaft, die in ihrer ganzen Mentalität und Struktur das Mittelmaß anstrebt. Voran gehen ist schließlich zu riskant und birgt zu wenig Chance auf Benefit.
Kannst du das für die Diskussion hier eventuell grob zusammenfassen?
Da geht es primär um Commodore und Amgia, beides sind amerikanische Unternehmen. Schneider wird kurz angerissen, aber die haben mWn hauptsächlich Klone von britischne Amstrad-PCs verkauft, eher keine große Innovation.
Und mal generell: Warum hießen PCs damals „IBM combatible“? Weil das quasi schon immer Nachbauten waren. Und die CPU kamen von Intel und AMD.
Insofern war mMn die mögliche Innovationstiefe für Siemens Nixdorf sowieso begrenzt.
Das konnte ich nicht finden. Kannst das bitte nochmal von oben zitieren?
Nicht unbedingt. In dem heise-Artikel steht, dass die Kosten für KI-Tools eventuell steigen müssen. Das bedeutet aber, das der Nutzen für die Kunden noch größer werden muß.
Dieses Paper vergleicht die Geschwindigkeit vorhandener KI-Tools („Benchmark“). Das ist weniger ein wissenschaftliches Paper als mehr eine Verkaufsbroschüre und eher ein Beweis für unternehmerischen Tätigkeit als für echte Innovation.
Stöcker zeichnet in seinem Buch „Nerd Attack“ die Geschichte des Computermediums vom C64 bis zu Wikileaks nach. Dabei geht es ihm weniger um Computerspiele, Soft- oder Hardware, sondern eher über die Entwicklungen und vor allem die „Netzkultur“: Wie aus dem Kopieren der Computerspiele und der Demo- Hacker- und Crackerszene von damals die Computerszene von heute wird und klärt damit so ganz nebenbei Fragen wie „Warum ist die Computerkultur in Deutschland heutzutage so unterentwickelt?“ oder „Warum haben Politik und Medien immer noch Probleme mit dem Internet?“
Nutshell: Seit den 80ern lassen sich die Deutschen eher widerwillig und mit 3-4 Jahren Verspätung durch alle technologischen Stufen mitziehen und sind damit logischerweise nirgendwo mehr führend. Deutschland hat leider keinen enthusiastischen Heimatmarkt wie Japan oder die USA, so dass deutsche Unternehmen eine schwächere Basis hatten.
Kurz: Deine Argumentation zu KI ist einfach nur dieselbe, die es seit den 80ern zu Computern, später zu Mobiltelefonen, dann zu ECommerce etc gab. Das Resultat ist bekannt.
Du umgehst die Frage:
Dann waren Toshiba-, Dell-, Lenovo-, Samsung-PCs und Notebooks also Anomalien, solange der PC noch (bis 2015) als Leading Platform wahrgenommen wurde? Ich weiß gar nicht, was ich dazu sagen soll.
… es war vor 3 Tagen.
Auch hier gibt es Forschungen, das Paper befasst sich damit, aber es gibt noch viel mehr. Aber das kannst du selber googeln, es findet alles gerade sehr offen statt, das ist das Schöne. Ich empfehle dir aber, die deutsche Blase zu verlassen und internationaler zu recherchieren.
Korrekt. Es ist ein Beispiel, um zu zeigen, was gerade tatsächlich stattfindet und direkt nach Publikation sofort in die Praxis geht.
…