MEINUNG: Wenn Apple die OpenAI-gestützten Funktionen von iOS 18 optional zur Verfügung stellt, würde das Unternehmen damit einräumen, welches enorme Risiko es eingeht, wenn es sich mit einem Unternehmen einlässt, das wild entschlossen ist, das KI-Wettrüsten zu gewinnen.

Berichten zufolge wird Apple die ausdrückliche Zustimmung der iPhone-Nutzer einholen, bevor es die Verwendung von generativen KI-Tools von Drittanbietern in iOS 18 zulässt. Einem Bericht von Mark Gurman von Bloomberg zufolge, den wir Anfang dieser Woche ausführlich beschrieben haben, werden einige der neuen KI-Funktionen „opt-in“ sein und nicht als unverzichtbare neue Tools für alle bis zum Äußersten angepriesen werden.

Und das aus gutem Grund.

Da Apples Bemühungen, Siri mit künstlicher Intelligenz neu zu beleben und neu zu starten, hinter dem Zeitplan zurückliegen, soll der iPhone-Hersteller allem Anschein nach mit OpenAI zusammenarbeiten, um die Lücke zu füllen. Vielleicht vorübergehend.

Wir müssen noch sehen, wie eng die Integration sein wird und welche Sicherheitsvorkehrungen getroffen werden. Wird dies beispielsweise viel anders sein, als ChatGPT einfach als eigenständige App Store-App zu haben? Oder wird es betriebssystemdefinierend sein wie Copilot in Windows 11?

Diese Antworten sollten nächste Woche auf der WWDC kommen. Unabhängig davon ist es kein unbedeutender Schritt, eine Drittanbieter-App dieser Größenordnung in das iOS-Ökosystem zu integrieren.

Nennen Sie es ein Trojanisches Pferd, ein Schlafen mit dem Feind, die Schlange im Garten Eden oder eine andere Redewendung Ihrer Wahl, es ist laut Gurmans Bericht etwas, wovor wichtige Apple-Persönlichkeiten vorsichtig sind. Einige haben Bedenken, einen „abtrünnigen Chatbot“ freizulassen, und andere haben eine „philosophische Abneigung“ dagegen, einen Chatbot eines Drittanbieters in iOS zu integrieren.

Durch die Partnerschaft mit ChatGPT zur Entwicklung einiger seiner neuen KI-Funktionen ist sich Apple des damit verbundenen Risikos bewusst, sieht aber offenbar die Notwendigkeit, es einzugehen.

Seine Konkurrenten Google, Samsung, Microsoft und Chiphersteller wie Qualcomm stürzen sich kopfüber in das KI-Zeitalter von Smartphones und Laptops, und es scheint, als gäbe es kein Zurück (bis in ein paar Jahren die unvermeidlichen Produkte für „Das ekelt mich an, wie kann ich es vermeiden?“-Leute auf den Markt kommen).

Apple hat die Dinge immer in seinem eigenen Tempo getan und seine großen Überarbeitungen zu einem Zeitpunkt veröffentlicht, den es für seine Kundenbasis als angemessen erachtet. Die Reiserichtung ist jedoch nur eine Richtung, und es kann sein, dass Apple (zumindest laut Mark Gurmans zuverlässigen Insiderberichten) das Gefühl hat, dass es nicht zu spät zu dieser Party kommen kann.

Die berichtete Allianz könnte gewaltige Konsequenzen haben, und es ist keineswegs sicher, dass diese positiv sein werden.

Der Scarlett-Brief

In der Öffentlichkeit herrscht große Skepsis und Misstrauen gegenüber OpenAI. Man missbilligt ChatGPTs Fähigkeit, ganze kreative Berufe überflüssig zu machen, und hat Bedenken hinsichtlich der Art und Weise, wie die LLMs des Unternehmens mit Daten trainiert werden, für deren Verwendung zu diesem Zweck möglicherweise keine Genehmigung vorliegt. Außerdem besteht Befürchtung, dass Verlage und andere sich verkaufen, um bei der Schulung zu helfen. Und schließlich besteht Befürchtung hinsichtlich der Sicherheit von Anfragen, sobald diese das Gerät verlassen und in die Cloud gelangen.

Abgesehen von den Streitigkeiten über die Technologie ist OpenAI selbst kein Hort der Stabilität. Die chaotische Situation im letzten Jahr, als die Anzugträger CEO Sam Altman entließen, der sich bereit erklärte, zu Microsoft zu wechseln, bevor alles geklärt war. Es fühlt sich nicht so an, als ob dies ein Unternehmen auf Augenhöhe wäre. Und für ein Unternehmen, das die Zukunft der Beziehung der Menschheit zur Technologie bestimmen könnte, erfüllt es uns nicht mit Zuversicht.

Die jüngste, sehr öffentliche Kontroverse über die Verwendung von Scalet Johannsons Stimmeals etwas, das den Menschen den Umgang mit KI erleichtern könnte, hatte genau den gegenteiligen Effekt.

Die Schauspielerin sagte: „Er sagte mir, er habe das Gefühl, dass ich, indem ich dem System meine Stimme leihe, die Kluft zwischen Technologieunternehmen und Kreativen überbrücken und den Verbrauchern helfen könne, sich mit dem gewaltigen Wandel in Bezug auf Mensch und KI wohlzufühlen. Er sagte, er habe das Gefühl, dass meine Stimme den Menschen Trost spenden würde.“

Es ist keine Überraschung, dass diese Art von Gefühl die Leute anekelt. Als sie Nein sagte, setzte Altman jemanden ein, dessen Stimme ihrer ähnelte, um es sehr freundlich auszudrücken.

Er kommt nicht aus der Situation heraus, in der viele Leute vielleicht zum ersten Mal von OpenAI hören, sieht aus wie eine vertrauenswürdige Person. Stattdessen ist er Vergleiche mit Miles Dyson – der ehrgeizige Programmierer des apokalyptischen Skynets in der Terminator 2-Überlieferung.

Die Angst ist nicht nur eine moralische Panik von außen. Erst diese Woche äußerten sich aktuelle und ehemalige Mitarbeiter über die fehlende Kontrolle und die ernsthaften Risiken, die diese Technologien bergen. Sie beklagten auch, dass sie aufgrund strenger Geheimhaltungsvereinbarungen nicht offen über die Gefahren sprechen könnten.

In einem (n offener Briefsagten die Mitarbeiter: „KI-Unternehmen haben starke finanzielle Anreize, einer wirksamen Aufsicht zu entgehen, und wir glauben nicht, dass maßgeschneiderte Strukturen der Unternehmensführung ausreichen, um dies zu ändern.“

„Wir verstehen auch die ernsthaften Risiken, die diese Technologien bergen“, bevor er sagte, dass die Unternehmen „derzeit nur schwache Verpflichtungen haben, einige dieser Informationen mit Regierungen zu teilen, und keine mit der Zivilgesellschaft. Wir glauben nicht, dass man sich darauf verlassen kann, dass sie diese Informationen freiwillig teilen.“

Schuld durch Verbindung

Wenn die Praktiken von OpenAI zu größeren Kontroversen eskalieren, wird Apple durch die Verbindung mit dem Unternehmen schuldig gesprochen, insbesondere wenn die Vorfälle über Apple-Hardware erfolgen. Wie das Sprichwort sagt: Wer sich mit einem Hund ins Bett legt, kann mit Flöhen aufwachen. Aus diesem Grund macht Apple diese Funktionen angeblich „opt-in“ – um sicherzustellen, dass die Benutzer ihrer Verwendung aktiv zugestimmt haben.

Apple hat sich den Ruf erarbeitet, bei seinen technologischen Angeboten den Datenschutz in den Vordergrund zu stellen. Das Unternehmen hat schon lange erklärt, dass es ein Hardware-Unternehmen und kein Datenunternehmen ist, und verfügt über Verfahren, die sicherstellen, dass Ihre Daten nicht missbraucht werden. Dieses Versprechen wird von seinem großen Kundenstamm weitgehend bekräftigt.

Dies ist ein sehr wichtiges technologisches Wettrüsten. Es geschieht sehr schnell, ohne Sicherheitslücke. Dass Apple ausgerechnet eine solche Vereinbarung mit OpenAI trifft, wirkt übereilt und untypisch für Apple.

Apple hat während der gesamten iPhone-Ära kontinuierlich Tools von Drittanbietern integriert, um Lücken in Produkten zu schließen, die es entweder selbst entwickelte oder an denen es nicht beteiligt war. Google Maps beispielsweise war bereits vor Apple Maps ein fester Bestandteil. Google Search ist seit Jahren der Standardanbieter für die Suche in Safari. Auch YouTube war einst in iOS integriert.

Vielleicht wäre dies für mich und andere kein so großes Problem, wenn Apple – wie Berichten zufolge ebenfalls erwogen wurde – statt einer Integration mit OpenAI eine Integration mit Google Gemini planen würde?

Nicht, dass Google in irgendeiner Weise ein Engel wäre, aber es gibt eine Vertrautheit für Benutzer, die skeptisch sein könnten, und es besteht eine lange und gewinnbringende gegenseitige Wertschätzung und Beziehung zwischen den beiden Parteien, die über die Rivalität zwischen iPhone und Android hinausgeht. Vielleicht ist es besser, den Teufel zu kennen, den man kennt.

Wir werden abwarten, wie sich dies auf der WWDC und nach der Integration in iOS 18 auswirkt, aber derzeit ist eine Allianz zwischen OpenAI und Apple ein großes Warnsignal.