LLMs laufen auch lokal, Apple bietet entsprechende Frameworks, um eine „KI“ mit lokalen Daten zu trainieren (Mac & i hatte einen Artikel dazu). Das Problem mit den irren Zusammenfassungen bei Apple Intelligence ist, dass nicht die eigentlichen Artikel zusammengefasst werden, sondern die bereits stark verkürzten Mitteilungen. Es fehlt u.U. also extrem viel Kontext.
Vielleicht unterschätzen wir alle das exponentielle Wachstum, das in diesem Bereich grade herrscht und wenn Altman sogar vom Erreichen der Singularität spricht, dann wird der Punkt, daß es überhaupt noch eine nutzerfreundliche Datenbank braucht, vielleicht auch einfach übersprungen. Ich bin jedenfalls sehr gespannt und 2025 wird bestimmt klarer werden, ob der Hype nur Marketing-Blabla war um nur noch mehr Geld aus den Investoren herauszulocken, oder ob da vielleicht doch mehr dran ist. Ich bin gespannt (und beängstigt zugleich)!
Zum Thema Datenschutz: die Bedenken sind absolut verständlich und auch ich würde nur lokale Modelle an meinen kompletten Datensatz ranlassen. Bei dem schnellen Entwicklungsfortschritt, wird auch das Thema mehr Rechenleistungsbedarf durch “test time compute” auf der Einsatz HW in den Griff zu kriegen sein, so daß lokale Modelle sehr schnell sehr leistungsfähig werden und ein KI Agent bald schon meine Nebenkostenabrechnung und Steuererklärung korrekt und effizient an Hand meiner angegeben Daten erstellen wird. Spannende Zeiten!
Altman hat ein großes finanzielles Interesse daran, solche Aussagen zu machen. Offensichtlich will er mit dem Hype mehr Investoren anlocken. Und OpenAI ist nicht unbedingt das Beste seiner Art. Es ist nur die lauteste Trompete in der Band und stark gebrandet. Ich hoffe, dass die Leute Zeit damit verbringen, Leuten zuzuhören, die leisere, vernünftigere und viel weniger sensationslüsterne Dinge zu sagen haben.
(Übersetzt mit DeepL)