Instagram arbeitet an Labels für KI
Von Jon Porter, einem Reporter mit fünf Jahren Erfahrung in den Bereichen Verbrauchertechnologieveröffentlichungen, EU-Technologiepolitik, Online-Plattformen und mechanische Tastaturen.
Instagram arbeitet offenbar an neuen Hinweisen, die erkennen lassen, wann KI bei der Erstellung von Inhalten auf seiner Plattform eine Rolle gespielt hat.
App-Forscher Alessandro Paluzzi, der häufig neue Instagram-Funktionen entdeckt, bevor sie offiziell angekündigt oder veröffentlicht werden, hat einen Screenshot einer Seite in der Instagram-App gepostet, auf der steht: „Der Ersteller oder Meta sagte, dass dieser Inhalt mit KI erstellt oder bearbeitet wurde.“ In der spezifischen Mitteilung wird darauf hingewiesen, dass es sich in diesem Fall um ein Bild handelt, das „von Meta AI generiert“ wurde. Anschließend wird kurz beschrieben, was generative KI ist und wie Beiträge identifiziert werden, die KI verwenden.
Die Entdeckung erfolgt kurz nachdem Meta zusammen mit anderen großen KI-Akteuren wie Google, Microsoft und OpenAI gegenüber dem Weißen Haus Zusagen zur verantwortungsvollen Entwicklung von KI gemacht hat. Neben der Investition in Cybersicherheits- und Diskriminierungsforschung gehörte zu den Zusagen auch die Entwicklung eines Wasserzeichensystems, um Benutzer zu informieren, wenn Inhalte KI-generiert sind.
Es ist unklar, wie genau das Kennzeichnungssystem von Instagram automatisiert sein wird und inwieweit es darauf angewiesen sein wird, dass Benutzer offenlegen, wann KI zum Erstellen oder Bearbeiten eines Bildes verwendet wurde. Die Tatsache, dass die Mitteilung die Worte „Meta sagte“ enthält, deutet jedoch darauf hin, dass das Technologieunternehmen die Mitteilung zumindest in einigen Fällen proaktiv umsetzen wird, anstatt sich auf die Ehrlichkeit der Benutzer selbst zu verlassen. Ein Sprecher von Meta lehnte es ab, sich gegenüber Engadget zu der Mitteilung zu äußern, und das Unternehmen reagierte nicht sofort auf die Bitte von The Verge um einen Kommentar.
Obwohl sie noch in den Kinderschuhen steckt, haben wir bereits einen Vorgeschmack darauf bekommen, wie KI-generierte Fehlinformationen aussehen könnten, als Anfang des Jahres ein Bild des Papstes in einer weiten Puffjacke in den sozialen Medien viral ging. In diesem Fall wurde das relativ harmlose Bild schließlich entlarvt, aber es wurde als Warnung angesehen, dass es mittlerweile einfache Werkzeuge gibt, um gefährliche Fehlinformationen zu verbreiten, wenn man sie auf Satellitenbilder und politische Fotografie anwendet.
Meta hat kürzlich sein umfangreiches Sprachmodell LLaMA 2 als Open-Source-Lösung veröffentlicht, für seine Produkte wie Instagram stehen jedoch noch keine verbraucherorientierten generativen KI-Funktionen auf breiter Basis zur Verfügung. Wir haben jedoch ein paar Hinweise auf die Art der Funktionen, die es entwickelt. Bei einem All-Hands-Meeting im Juni sagte CEO Mark Zuckerberg, Meta entwickle Funktionen wie die Verwendung von Textaufforderungen zum Ändern von Fotos für Instagram Stories, berichtete Axios, und App-Forscher Paluzzi hat auch Anzeichen einer „KI-Pinsel“-Funktion für Instagram entdeckt, die dies könnte „Bestimmte Teile hinzufügen oder ersetzen“ von Bildern. Die Financial Times berichtete kürzlich, dass Meta bereits im nächsten Monat eine KI-Chatbot-„Personas“-Funktion in seine Produkte integrieren könnte.
Über Meta hinaus hat Google bereits ein neues Tool angekündigt, das es Nutzern erleichtern soll, festzustellen, ob ein Bild KI-generiert wurde. Die Funktion „Über dieses Bild“ wird diesen Sommer eingeführt und soll den ersten Ort hervorheben, an dem ein Bild vom Suchriesen indiziert wurde, und so wichtige Hinweise auf seine Herkunft liefern.
/ Melden Sie sich für Verge Deals an, um täglich Angebote für von uns getestete Produkte in Ihrem Posteingang zu erhalten.