Künstliche Intelligenz und Urheberrecht – Schutz von Prompts

Prompts werden definiert als Eingaben oder Anweisungen an eine KI, um eine bestimmte Antwort oder Aktion (Output) zu initiieren. Aufgrund der steigenden Bedeutung von Prompts ist inzwischen ein eigenes Berufsfeld, der „Prompt Engineer“, entstanden. Zu seinen Hauptaufgaben gehören unter anderem das strategische Formulieren von Anweisungen, die Entwicklung maßgeschneiderter Prompts und die Vereinfachung von Geschäftsprozessen. Die Zielgruppe sind überwiegend Unternehmen, die

KIRA

Die Deutsche Rentenversicherung Bund (DRV Bund) führt mit dem Projekt KIRA ein Instrument zur Unterstützung von Betriebsprüfungen ein. Ziel ist es, die Auswahl und Schwerpunktsetzung von Prüffällen effizienter zu gestalten, ohne die menschliche Entscheidungsverantwortung aufzuheben. KIRA wird dabei als Leuchtturmprojekt durch das Bundesministerium fürArbeit und Soziales (BMAS) gefördert. Die rechtliche Grundlage der Betriebsprüfung bildet § 28p SGB IV. Alle vier

Data Governance Act- DGA- und Datenaltruismus

3 Wesentlichen Regelungsbereiche des DGA: (1) die Bedingungen für die Weiterverwendung bestimmter Kategorien geschützter Daten des öffentlichen Sektors in Kapitel II, (2) Regelungen für Datenvermittlungsdienste in Kapitel III sowie (3) einheitliche Vorgaben für Einrichtungen für datenaltruistische Zwecke in Kapitel IV. Bestandteil des DGA ist auch das Konzept des sogenannten Datenaltruismus ein. Damit ist die freiwillige Bereitstellung personenbezogener oder nicht-personenbezogener Daten

Der EU-„General-Purpose AI Code of Practice“ – Freiwillige Regulierung im Schatten des AI Act

Der General-Purpose AI Code of Practice ist ein freiwilliges Soft-Law-Instrument der Europäischen Kommission, das im Juli 2025 veröffentlicht wurde. Er richtet sich an Anbieter von General-Purpose AI-Modellen, also großen Basismodellen wie GPT, Claude oder Gemini, und soll diese bei der Umsetzung der Pflichten aus dem Artificial Intelligence Act (AI Act) vorbereiten. Der Code wurde auf Initiative der EU-Kommission in Zusammenarbeit

Modernisierung des Produkthaftungsrechts um Haftung für Künstliche Intelligenz

Mit der Produkthaftungsrichtlinie EU 2024/2853 wird durch europäisches Recht, das aus den 1980er Jahren stammende Produkthaftungsrecht grundlegend modernisiert. Das Produkthaftungsrecht ist ein eigenes, verschuldensunabhängiges Haftungsregime neben der vertraglichen Haftung, die regelmäßig ein Vertretenmüssen des Schädigers im Falle einer Schädigung voraussetzt und der Deliktshaftung, die ein Verschulden erfordert. In der Sache geht es im Produkthaftungsrecht um eine Kompensation für aufgrund eines

Anwendungen von KI in der juristischen Praxis: Projekte MAKI und KAI

Die deutsche Justiz setzt zunehmend auf künstliche Intelligenz, um Massenverfahren effizienter zu bewältigen und verwaltungsinterne Abläufe zu modernisieren. Ein zentrales Vorhaben ist das länderübergreifende Projekt MAKI („Massenverfahrensassistenz mithilfe von KI“), an dem Brandenburg, Niedersachsen, Hessen und Nordrhein-Westfalen beteiligt sind. MAKI unterstützt Gerichte insbesondere bei der Bearbeitung von Fluggast- und anderen Masseverfahren. Das System nutzt automatisierte Metadatenextraktion, ein KI-gestütztes Wissens- und Textbausteinmanagement sowie

GPAI-Kodex: Nachweis für die Einhaltung europäischer Urheberrechtsanforderungen

Der EU AI-Act differenziert zwischen KI-Systemen und KI-Modellen. Während das KI-Modell als isolierte Komponente – gleichsam als „Gehirn“ – die Entscheidungsgrundlage bildet, stellt es für sich genommen noch kein funktionsfähiges System dar. Eine genaue Definition des KI-Modells existiert dabei nur für die Modelle mit allgemeinem Verwendungszweck in Art. 3 Nr. 63 AI-Act. Sie müssen von „signifikanter Generalität“ geprägt sein, was

KI und Ethik

In mehreren Rechtsordnungen wird derzeit geprüft, in welchem Umfang KI-gestützte Anwendungen gerichtliche Entscheidungen unterstützen können. In den USA kommen hierzu seit Jahren Risikobewertungssysteme wie COMPAS zum Einsatz, die jedoch kein KI-Modell im technischen Sinn darstellen, sondern auf regelbasierten und statistischen Verfahren beruhen. Die Software bewertet anhand von Faktoren wie Alter, Vorstrafen oder sozialem Umfeld das Rückfallrisiko einer Person und beeinflusst

KI und Urheberrecht: Deepfakes

Ende Oktober dieses Jahres stellte Youtube ein neues Tool namens „Likeness Detection“ einigen Creatorn zur Verfügung. Mithilfe dieses Tools sollen künftig Deepfakes erkannt und gemeldet werden können. Die Möglichkeit, Inhalte wegen Urheberrechtsverletzungen zu melden, bleibt dabei weiterhin bestehen. Der Begriff „Deepfakes“ ist in Art. 3 Nr. 60 KI-VO legaldefiniert und beschreibt „(…) einen durch KI erzeugten oder manipulierten Bild-, Ton-

KI in der Anwaltschaft – BerufsrechtlicheHerausforderungen

Aktuelle Gerichtsentscheidungen verdeutlichen die Risiken beim unkritischen Einsatz von KI in der anwaltlichen Praxis. So bemängelten u.a. bereits der Oberste Gerichtshof Österreichs (OGH, 14 Os 95/25i, 7.10.2025) sowie das Amtsgericht Köln (312 F 130/25, 2.7.2025) die Verwendung von KI-generierten Schriftsätzen, die zahlreiche Fehlzitate und nicht existierende Fundstellen enthielten. Gleichzeitig betont der Deutsche Anwaltverein (DAV) in seiner Stellungnahme Nr. 32/2025 die