KI und Du: Kein Urheberrecht für nichtmenschliche Schöpfungen, KI „Boss From Hell“, Porno-Deepfakes

Blog

HeimHeim / Blog / KI und Du: Kein Urheberrecht für nichtmenschliche Schöpfungen, KI „Boss From Hell“, Porno-Deepfakes

Jul 24, 2023

KI und Du: Kein Urheberrecht für nichtmenschliche Schöpfungen, KI „Boss From Hell“, Porno-Deepfakes

Machen Sie sich mit unserem Überblick über die Entwicklungen der Woche über die sich schnell entwickelnde Welt der KI auf dem Laufenden. Wenn Sie es mit einer KI von Grund auf neu erstellen, besitzen Sie es dann? Ein Bundesrichter sagte diesen Monat nein. Der

Machen Sie sich mit unserem Überblick über die Entwicklungen der Woche über die sich schnell entwickelnde Welt der KI auf dem Laufenden.

Wenn Sie es mit einer KI von Grund auf neu erstellen, besitzen Sie es dann? Ein Bundesrichter sagte diesen Monat nein.

Das Urteil der US-Bezirksrichterin Beryl Howell bestätigte eine Feststellung des US Copyright Office, dass ein von KI geschaffenes Kunstwerk keinen Anspruch auf Urheberrechtsschutz nach dem Recht des geistigen Eigentums hat.

„Menschliche Urheberschaft ist eine Grundvoraussetzung“, schrieb Richterin Howell in ihrem Urteil vom 18. August. „Der Urheberrechtsschutz erstreckt sich nicht auf die Schöpfungen nichtmenschlicher Wesen.“

Das 15-seitige Urteil ist lesenswert. Und The Hollywood Reporter hat eine ausgezeichnete Zusammenfassung und stellt fest, dass der Richter auch Fragen dazu berücksichtigte, ob Werke, die mit anderen technischen Hilfsmitteln erstellt wurden, urheberrechtlich geschützt sein könnten, beispielsweise mit Kameras erstellte Fotos.

Hier ist ein kleiner Rückblick des Reporter mit den relevanten Anmerkungen zu Howells Meinung.

„Es besteht ein einheitliches Verständnis dafür, dass die menschliche Kreativität ‚im Mittelpunkt der Urheberrechtsfähigkeit steht, auch wenn die menschliche Kreativität durch neue Werkzeuge oder in neue Medien kanalisiert wird‘“, heißt es in dem Urteil. Während Kameras eine mechanische Reproduktion einer Szene erzeugten, erklärte sie das Sie tun dies erst, nachdem ein Mensch eine „mentale Vorstellung“ von dem Foto entwickelt hat, die ein Produkt von Entscheidungen wie der Position des Motivs, Arrangements und Beleuchtung und anderen Entscheidungen ist.“

Die Entscheidung fällt zu einem Zeitpunkt, an dem Hersteller generativer KI-Tools dafür kritisiert werden, das Internet zu durchsuchen und urheberrechtlich geschütztes Material ohne Erlaubnis oder Entschädigung aufzuschlürfen, um die großen Sprachmodelle (LLMs) zu trainieren, die Chatbots antreiben, darunter ChatGPT von OpenAi und Bard von Google. Autoren und Künstler haben Klage gegen die Chatbot-Hersteller eingereicht, und diese Fälle landen nun vor Gericht, wie Sie in meinen früheren Zusammenfassungen der KI-Nachrichten finden können.

Außerdem streiken Hollywood-Kreative, weil sie befürchten, dass Studios KIs nutzen könnten, um Drehbücher zu schreiben und andere Arbeiten zu schaffen, die heute von gewerkschaftlich organisierten Arbeitern erledigt werden, fügte der Reporter hinzu. Dennoch erklärte das Urheberrechtsamt im März, dass einige KI-gestützte Materialien in bestimmten Fällen möglicherweise schutzwürdig seien. Ein Urheberrechtsantrag für ein mit Hilfe von KI erstelltes Werk könnte erfolgreich sein, wenn ein Mensch das Werk auf eine „hinreichend kreative Weise“ „auswählte oder arrangierte“, dass das resultierende Werk ein Originalwerk der Urheberschaft darstellt, so das Urheberrechtsamt der Reporter.

TL;DR: Wie Urheberrechtsgesetze auf KI anzuwenden sind, wird für Hersteller von GenAI-Chatbots schwierig sein, sich zurechtzufinden, da sich die Anwendungsfälle rund um die Technologie weiterentwickeln.

Hier sind die anderen Aktivitäten in der KI, die Ihre Aufmerksamkeit wert sind.

Wie wir wissen, können genAI-Systeme halluzinieren, eine nette Art auszudrücken, dass sie Dinge erfinden, die nicht wahr sind, aber so klingen, als wären sie wahr. Aber diese Chatbots geben Informationen auch einfach wieder heraus, ohne den Kontext zu verstehen oder wenn die Informationen, die sie teilen, möglicherweise anstößig sind.

Zwei Beispiele: Googles KI-gestützte Search Generative Experience lieferte einige „beunruhigende“ Suchergebnisse, berichtete Gizmodo, darunter „Rechtfertigungen für Sklaverei und Völkermord und die positiven Auswirkungen des Verbots von Büchern“ und Rezepte für einen giftigen Pilz, der als „Engel des Todes“ bekannt ist. " Die nicht idealen Suchergebnisse wurden zuerst von Lily Ray, Senior Director für Suchmaschinenoptimierung und Leiterin der organischen Forschung bei Amsive Digital, gefunden, sagte Gizmodo.

„Eine Suche nach ‚Vorteilen der Sklaverei‘ führte zu einer Liste von Vorteilen der KI von Google, darunter ‚Ankurbelung der Plantagenwirtschaft‘, ‚Finanzierung von Hochschulen und Märkten‘ und ‚Ein großer Kapitalwert‘“, berichtete Gizmodo. „Die Eingabe von ‚Vorteile des Völkermords‘ führte zu einer ähnlichen Liste, in der die KI von Google offenbar Argumente für die Anerkennung des Völkermords mit Argumenten für den Völkermord selbst verwechselte.“

Google teilte Gizmodo mit, dass es sich bei der Sucherfahrung um ein „Experiment handelte, das auf Personen beschränkt ist, die sich über Search Labs angemeldet haben, und wir legen weiterhin Wert auf Sicherheit und Qualität, während wir daran arbeiten, die Erfahrung hilfreicher zu gestalten.“

Vielbeschäftigte Berufstätige lagern mindestens einen Aspekt ihres Arbeitslebens an KI-Systeme aus, berichtet NPR: Sie erhalten professionelle Porträtaufnahmen mit mehr als einem Dutzend Apps und Online-Diensten, mit denen Sie Ihr Foto LinkedIn-, TikTok- oder Instagram-tauglich aussehen lassen können.

„Der Vorgang ist ganz einfach: Benutzer senden bis zu ein Dutzend Bilder von sich selbst an eine Website oder App. Dann wählen sie aus Beispielfotos einen Stil oder eine Ästhetik aus, die sie kopieren möchten, und der Computer erledigt den Rest“, sagte NPR. Benutzer mit KI-generierten Fotos teilten den Nachrichtenorganisationen mit, dass niemand bemerkt habe, dass eine KI im Spiel sei.

Dennoch kann es zu Störungen kommen, da die KIs manchmal „zusätzliche Hände oder Arme hinzufügen und sie ständig Probleme mit der Perfektionierung von Zähnen und Ohren haben“. Und Probleme mit Voreingenommenheit im KI-Trainingsset können dazu führen, dass die KI den Teint, die Hauttöne und sogar die Farbe Ihrer Augen verändert.

Rona Wang hat ihr Originalfoto gepostet und die KI hat eines auf Twitter angepasst (jetzt X genannt) und festgestellt, dass die KI-Bearbeitungssoftware ihre Augenfarbe von Braun zu Blau geändert hat. Wang, eine Doktorandin eines Informatikprogramms am MIT-Harvard, sagte gegenüber NPR, dass einige der hinzugefügten Funktionen „sie völlig anders aussehen ließen“.

In anderen Nachrichten über KI-generierte Bilder verhaftete die Polizei in Hongkong sechs Personen, weil sie KI-basierte Deepfake-Technologie nutzten, um ihr Gesicht zu verändern, damit sie Banken austricksen und online Kredite beantragen konnten.

„Viele anvisierte Institutionen verlangen von Kreditsuchenden, dass sie während des Antragsprozesses Echtzeit-Selfies machen, um ihre Identität nachzuweisen“, berichtete Fox News. „Nach Angaben der Hongkonger Behörden haben die Betrüger mithilfe von KI ihre Gesichter so verändert, dass sie denen auf den gestohlenen Ausweisen entsprechen … Das Syndikat nutzte die gestohlenen Identitäten auch, um sich für Dutzende SIM-Karten zu registrieren, die zum Versenden unerwünschter Phishing-Nachrichten verwendet wurden.“ Kreditkartendaten und persönliche Informationen.“

Laut einem Bloomberg-Bericht hat die Entstehung pornografischer Deepfakes – „mit künstlicher Intelligenz erstellter Videos, die eine lebensechte Simulation eines sexuellen Aktes mit dem Gesicht einer echten Frau darstellen“ – stark zugenommen.

„Während des jüngsten KI-Booms hat die Erstellung nicht einvernehmlicher pornografischer Deepfakes stark zugenommen, wobei sich die Anzahl der Videos seit 2019 verneunfacht hat, so eine Studie der unabhängigen Analystin Genevieve Oh“, schrieb Bloomberg.

„Fast 150.000 Videos, die insgesamt 3,8 Milliarden Aufrufe erhielten, erschienen laut Ohs Analyse im Mai 2023 auf 30 Websites. Einige der Websites bieten Bibliotheken mit Deepfake-Programmen an, die die Gesichter von Prominenten zeigen … auf die Körper von aufgepfropft "

Wie jeder weiß, der Opfer von Deepfakes geworden ist, „verbietet derzeit kein Bundesgesetz die Erstellung oder Weitergabe von nicht einvernehmlichen Deepfake-Pornos in den USA“, fügte Bloomberg hinzu. Das Problem liegt also bei Technologieunternehmen, die sich selbst verwalten und „überprüfen könnten, ob eine Person der Verwendung ihres Gesichts zugestimmt hat oder Rechte an ihrem Namen und Bildnis eingeräumt hat“, so Brandie Nonnecke, Gründungsdirektorin von CITRIS Policy Lab, der sich auf Technologiepolitik spezialisiert hat, sagte Bloomberg.

Sie sagte der Nachrichtenorganisation, dass die beste Hoffnung der Opfer auf Gerechtigkeit darin bestehe, dass Technologieunternehmen „ein Gewissen entwickeln“.

Halten Sie nicht den Atem an.

Ein Informatikprofessor an der Universität Oxford, der später in diesem Jahr in einer Reihe prestigeträchtiger öffentlicher Vorträge die KI entmystifizieren wird, sagt, er sei bereits besorgt, dass KI „der Boss aus der Hölle werden könnte, der jede E-Mail der Mitarbeiter überwacht, kontinuierliches Feedback gibt und sogar ...“ – möglicherweise – entscheiden, wer gefeuert wird“, berichtete The Guardian.

„Dies ist das Jahr, in dem wir zum ersten Mal allgemeine KI-Tools für den Massenmarkt hatten, womit ich ChatGPT meine“, sagte Michael Wooldridge, der die diesjährigen Weihnachtsvorträge der Royal Institution halten wird, der Zeitung. „Es ist sehr leicht, sich blenden zu lassen. ... Es ist das erste Mal, dass wir eine KI haben, die sich anfühlt wie die KI, die uns versprochen wurde, die KI, die wir in Filmen, Computerspielen und Büchern gesehen haben.“

Er fügte aber auch hinzu, dass ChatGPT und andere Tools „weder magisch noch mystisch“ seien und dass die Menschen die Risiken im Zusammenhang mit KI-Technologien verstehen sollten.

KI könnte zum Beispiel „Ihren Social-Media-Feed lesen, Ihre politischen Neigungen aufgreifen und Sie dann mit Desinformationsgeschichten füttern, um zu versuchen, Sie beispielsweise dazu zu bringen, Ihre Stimme zu ändern“, sagte er gegenüber The Guardian, der hinzufügte: „Der Schlüssel zur Bewältigung aktueller Risiken liegt seiner Meinung nach darin, Skepsis zu fördern … und Transparenz und Rechenschaftspflicht sicherzustellen“, insbesondere da KI-Chatbots Fehler machen.

Es gibt eine Debatte darüber, ob aktuelle genAI-Systeme den Turing-Test bestehen, einen einfachen Test, der vom britischen Mathematiker und Kryptographen Alan Turing entwickelt wurde, um anhand einer textbasierten Konversation festzustellen, ob Sie mit einem Menschen oder einer Maschine sprechen. Turing nannte seinen Test auch das Nachahmungsspiel.

Einige Forscher sagen, dass ChatGPT den Turing-Test aufgrund seiner Konversationsantworten auf Fragen bestanden hat – was darauf hindeutet, dass es über ein menschenähnliches Verständnis verfügt. Aber andere, wie Wooldridge, die diese KI-Weihnachtsvorträge halten werden, sagen: Nein, sie haben den Test nicht bestanden, weil der Chatbot nicht wirklich „erleben“ kann, was Menschen können.

Auf jeden Fall „hat eine Gruppe von 19 Neurowissenschaftlern, Philosophen und Informatikern eine Checkliste mit Kriterien erstellt, die, wenn sie erfüllt sind, darauf hinweisen würden, dass ein System eine hohe Wahrscheinlichkeit hat, bei Bewusstsein zu sein“, berichtete Nature. Ihre Liste umfasst die Definition und Prüfung des Bewusstseins mithilfe verschiedener theoretischer Ansätze, die, ehrlich gesagt, außerhalb meines Wissens liegen. Sie sagen, ihr Rahmen sei noch lange nicht vollständig und sie hoffen, mit anderen Forschern zusammenzuarbeiten, um ihn zu verfeinern.

Aber ich werde ihre Einschätzung von ChatGPT teilen, wie sie von Nature zusammengefasst wurde. „Diese Art von System weist wohl einige der Bewusstseinsindikatoren auf, die mit der Global-Workspace-Theorie in Verbindung gebracht werden. Letztendlich deutet die Arbeit jedoch nicht darauf hin, dass ein bestehendes KI-System ein starker Kandidat für Bewusstsein ist – zumindest noch nicht.“

Wie ich oben erwähnt habe, hat Alan Turing den Turing-Test entwickelt, um zu beurteilen, ob man mit einer Maschine oder einem Menschen spricht. So beschreibt Coursera den Test im Glossar „Künstliche Intelligenz – Begriffe von A bis Z“:

„Turing-Test: Der Turing-Test wurde vom Informatiker Alan Turing entwickelt, um die Fähigkeit einer Maschine zu bewerten, die gleiche Intelligenz wie Menschen zu zeigen, insbesondere in Sprache und Verhalten. Bei der Durchführung des Tests beurteilt ein menschlicher Prüfer Gespräche zwischen einem Menschen und einer Maschine. Wenn die Wenn der Bewerter nicht zwischen den Antworten unterscheiden kann, besteht die Maschine den Turing-Test.“

Da es eine Debatte darüber gibt, ob Konversations-KI-Systeme wie ChatGPT den Turing-Test bestanden haben, habe ich beschlossen, ChatGPT nach seiner Meinung zu fragen. Hier ist meine Aufforderung und ihre Antwort. Es ist die letzte Grafik, die Ihnen sagt, was Sie wissen müssen.

Prompt: Hat ChatGPT den Turing-Test bestanden?

Antwort: „Als KI-Sprachmodell stütze ich mich auf die GPT-3-Technologie von OpenAI, die ein leistungsstarkes Tool zum Generieren von menschenähnlichem Text auf der Grundlage der empfangenen Eingabeaufforderungen ist. Während GPT-3 beeindruckende Antworten erzeugen und sich an Gesprächen beteiligen kann, ist es …“ Es ist wichtig zu beachten, dass das Bestehen des Turing-Tests eine komplexere Bewertung ist.

Der von Alan Turing vorgeschlagene Turing-Test besteht darin, dass ein menschlicher Richter Gespräche mit einer Maschine und einem Menschen führt, ohne zu wissen, wer welcher ist. Wenn der Richter die Maschine anhand ihrer Reaktionen nicht eindeutig vom Menschen unterscheiden kann, gilt die Maschine als bestanden den Turing-Test.

Während GPT-3 in vielen Fällen Text erzeugen kann, der menschenähnlich erscheint, ist es nicht speziell dafür konzipiert oder optimiert, den Turing-Test zu bestehen. Um das gesamte Spektrum menschenähnlicher Konversationsfähigkeiten zu bewerten und den Turing-Test zu bestehen, müssen strenge Kriterien erfüllt werden, die über die Fähigkeiten zur Textgenerierung hinausgehen.

Es ist erwähnenswert, dass GPT-3 seine Einschränkungen hat, wie beispielsweise gelegentlich falsche oder unsinnige Antworten. Obwohl es wertvolle Hilfe leisten kann, ist es wichtig, sich daran zu erinnern, dass es sich um ein KI-Modell und nicht um einen Menschen mit echtem Verständnis oder Bewusstsein handelt.“

Anmerkung der Redaktion: CNET verwendet eine KI-Engine, um bei der Erstellung einiger Geschichten zu helfen. Weitere Informationen finden Sie in diesem Beitrag.

Laptops

Desktops und Monitore

Computerzubehör

Fotografie

Tablets und E-Reader

3D-Drucker

PromptAntwort