YOUR
Search

    10.06.2024

    KI im Social-Media-Einsatz


    Worauf müssen Unternehmen achten, wenn sie KI in der Kommunikation einsetzen? Welche rechtlichen Rahmenbedingungen gilt es zu beachten? Transparenz ist ein wichtiger Faktor.

    Ohne den Einsatz von Social Media ist eine zeitgemäße Unternehmenskommunikation nicht denkbar. Das gilt vor allem in der Konsumgüterindustrie. Wer seine Kunden erreichen will, der muss sie kennen, finden und Inhalte platzieren, die sie interessieren. Das ist kein neuer Trend, und Juristen beschäftigen die rechtlichen Aspekte von Social-Media-Marketing seit Jahren. So hat es die Influencerin Cathy Hummels schon 2021 bis zum Bundesgerichtshof (BGH) geschafft mit der Frage, ob sie ihre produktbezogenen Posts als 'Werbung' kennzeichnen muss. Muss sie nicht, wenn sie keine Gegenleistung erhält (BGH, Az. I ZR 126/20). Neu ist, dass sich Social-Media-Marketing durch den Einsatz Künstlicher Intelligenz (KI) beliebig skalieren lässt. Ob es um die Analyse von Nutzerverhalten geht oder um die Erstellung von Inhalten: KI verändert die Unternehmenskommunikation. Was ist hier zu erwarten? Worauf sollte man unbedingt achten?

    Nutzung von KI-Content

    Die Nutzung von KI-generierten Texten und Bildern (Output) eröffnet neue Möglichkeiten der Kommunikation: Die Produktion von Inhalten hat keine personellen Limits mehr, wird schneller und kostengünstiger. Die Kehrseite ist der Kontrollaufwand. Wer KI nutzt, der kennt die Anfälligkeit für inhaltliche Fehler. Die Anbieter von KI weisen mit gutem Grund genau darauf hin. Das führt auch aus rechtlicher Sicht dazu, dass KI-generierte Inhalte gründlich überprüft werden müssen. Wer Unwahrheiten veröffentlicht, der ist dafür rechtlich verantwortlich. Unwahre Angaben in der Unternehmenskommunikation sind oft wettbewerbswidrig. Ansprüche von Wettbewerbern und Verbraucherschutzverbänden können die Folge sein.

    Transparenz ist essenziell

    Neben der Haftung für inhaltliche Fehler lautet ein Kernthema bei der Output-Nutzung Transparenz. Das Transparenzgebot gilt bei jeder öffentlichen Kommunikation, es ist in etlichen Normen verankert. Es besagt im Kern, dass der Zweck und die Herkunft einer Veröffentlichung erkennbar sein müssen: Wer für ein Produkt wirbt, darf das nicht im Gewand einer redaktionellen Berichterstattung tun; wer einen fremden Text veröffentlicht, darf ihn nicht als eigenen ausgeben; und wer KI-generierte Inhalte wiedergibt, der darf sich nicht als Autor bezeichnen. Das ergab sich schon bisher aus der bestehenden Gesetzeslage.
    Im Mai 2024 ist durch mit Verabschiedung der KI-Verordnung der EU (AI Act) das Transparenzgebot jetzt auch speziell für Inhalte geregelt worden, die mit KI generiert sind. Danach muss der künstliche Charakter von Deepfakes offengelegt werden (Art. 52 Abs. 3 AI Act), gleiches gilt bei jeder Interaktion von KI mit Menschen (Art. 52 Abs. 1 AI Act), also auch bei automatisierten Postings und Chatbot-Inhalten. Die Transparenzpflichten nach dem AI Act treten erst im Sommer 2026 in Kraft. Verstöße gegen das Transparenzgebot können aber auch nach aktueller Rechtslage Folgen haben, insbesondere sind wettbewerbsrechtliche Ansprüche wegen irreführender Werbung denkbar.

    KI richtig kennzeichnen

    Wegen des Transparenzgebots ist es sehr wichtig, darauf hinzuweisen, dass ein Text oder ein Bild KI-generiert sind, wenn das nicht aus sich heraus erkennbar ist. Ein solcher Hinweis kann beispielsweise nach Art eines Fotocredits lauten 'KI-generiert' oder 'Erstellt unter Einsatz von Dall-E'. In der Praxis taucht häufig die Frage auf, wie mit Mischformen umzugehen ist. Gerade Textautoren arbeiten häufig so, dass sie sich zunächst einen Vorschlag von einer generativen KI-Anwendung machen lassen, ihn dann aber überarbeiten. Ob ein Hinweis auf dieses Vorgehen rechtlich geboten ist, hängt davon ab, wie viel vom KI-Text im Endergebnis noch vorhanden ist. Sind ganze Sätze oder Absätze übernommen, dann muss auf den Ursprung hingewiesen werden. Sind dagegen nur noch Struktur und Information übernommen, dann ist das nicht notwendig – Chat GPT ist dann nur als Recherche-Tool genutzt worden.

    Persönlichkeits- und Urheberrechte beachten

    Ein weiteres wesentliches Output-Thema betrifft Persönlichkeitsrechte. Kurz gesagt: Finger weg von Deep Fakes in der Werbung! Aber auch die bloße Bezugnahme auf reale Personen, insbesondere Prominente, ist – wie immer in der Unternehmenskommunikation – ein No-Go, es sei denn sie haben eingewilligt. Das gilt selbst dann, wenn transparent gemacht wird, dass es sich um KI-Darstellungen handelt. Denn die Kommerzialisierung von Persönlichkeitsrechten löst immer Ansprüche aus, vor allem bei Prominenten. Dabei können auch im deutschen Recht hohe Zahlungsansprüche entstehen. Betroffene können das verlangen, was sie vertraglich vereinbart hätten, wenn sie gefragt worden wären. Weniger Probleme macht das Urheberrecht. Weder die Erstellung von Inhalten durch KI noch die Nutzung dieser Inhalte sind urheberrechtlich relevant. Ausnahmen kann dort geben, wo durch gezieltes Prompting ein Output provoziert wird, der bestehenden Werken zu ähnlich ist (z. B. »Erstelle eine Grafik, die wie ein Siebdruck von Marylin Monroe aus der Hand von Andy Warhol aussieht«).

    Influencer und Mitarbeiter briefen

    Die Grundsätze zum Output gelten auch für Inhalte, die Influencer oder beauftragte Agenturen erstellen und posten. Gerade hier kann die Versuchung groß sein, Beiträge mit KI-Unterstützung zu produzieren – ein Vorgehen, das nicht im Interesse des Auftraggebers ist. Es ist deshalb ratsam, bestehende Verträge mit Influencern oder Agenturen um eine KI-Klausel zu ergänzen, mit der die Nutzung von KI für vertraglich geschuldete Inhalte untersagt oder eingeschränkt wird. Was das eigene Business Development angeht, so sollten Unternehmen klare Anweisungen zur Erstellung, Kontrolle und Veröffentlichung von KI-Inhalten machen – beispielsweise im Rahmen einer KI-Richtlinie. Im Haftungsfall können solche Vorgaben dabei helfen, ein Verschulden auszuschließen. Das kann Schadensersatzrisiken senken.

    Vorsicht bei der Datenanalyse

    Soziale Medien bieten riesige Datenschätze, die mit KI-Hilfe analysiert und aufbereitet werden können, um das eigene Marketing zu optimieren. Wer spricht über welche Produkte, welche Memes gehen viral und warum? KI kann diese Datenmengen verarbeiten, Trends nachverfolgen und Ergebnisse analysieren. Die Plattformen selbst weiten zurzeit ihre Möglichkeiten für das Training von KI-Anwendungen aus: Meta hat am 1. Juni 2024 seine Nutzer darüber informiert, dass man ab Ende Juni 2024 Postings für Trainingszwecke der eigenen KIs nutzen werde. Für Unternehmen liegt es nahe, auf Mess- und Analyse-Tools der Plattformanbieter zurückgreifen. Die Gewinnung von Informationen auf eigene Faust ist technisch und rechtlich nicht trivial, vor allem dann, wenn sie nicht nur Inhalte auf eigenen Accounts betreffen. Denn das Auslesen von fremden Accounts zu Analysezwecken, das sogenannte »Scraping«, kann gegen Nutzungsbedingungen der Anbieter verstoßen und ist datenschutzrechtlich sowie urheberrechtlich problematisch. Es ist urheberrechtlich zwar erlaubt, frei zugängliche Inhalte für das KI-Training zu verwenden – wenn nicht der Rechtsinhaber einen Vorbehalt erklärt hat (§ 44b UrhG). Die Ausnahme gilt aber nur für KI-Training und nicht für die Datenauswertung unter Einsatz von KI. Außerdem sind die meisten Plattforminhalte nicht frei zugänglich, sondern erst nach Anmeldung abrufbar. Sofern man über die von Plattformanbietern angebotene Analyse-Tools hinaus Datenanalysen betreiben möchte, sollte man das deshalb über einen spezialisierten Dienstleister tun.

    Dr. Holger Weimann

    Dieser Blogbeitrag erscheint ebenso im Magazin markenartikel und im Haufe Wirtschaftsrechtsnewsletter.

    E-Commerce Action Plan: Germany’s Strategy…
    On 6 September, the German Federal Ministry of Economics and Technology (“BMWK”)…
    Read more
    Consent Management Regulation - Goodbye co…
    According to a recent study by Bitkom, 76% of internet users feel annoyed by coo…
    Read more
    ADVANT Beiten Advises Shareholders of Fisc…
    Freiburg, 5 August 2024 – The international law firm ADVANT Beiten has advised t…
    Read more
    Draft bill on the modernization of the German arbitration law of the Federal Government of Germany
    Today the Federal Government of Germany has presented a draft bill on the modernization of the German arbitration law [BMJ - Aktuelle Gesetzgebungsverfahren - Modernisierung des deutschen Schiedsverfahrens…
    Read more
    EU Supply Chain Act finalized - relevant for companies worldwide
    It did indeed take quite a while. And there was indeed a lot of back and forth. But now, it is final and binding: Today, the European Council gave its final green light for the so-called EU Corporate Sust…
    Read more
    Boycotting the Supervisory Board by Permanent Absence? – Federal Court of Justice Rejects Appointment by Court
    The German Federal Court of Justice (BGH) takes the stance that a supervisory board member boycotting the board by repeatedly being absent does not give rise to the right to have an additional member appoi…
    Read more
    Update AI Act - the ten most important questions for users of AI systems
    After the political agreement on the AI Act was effectively announced in the media in December 2023, the now provisionally final version was adopted on 13 March 2024. The AI Act was approved by the Europea…
    Read more
    Artificial intelligence: what is more important than the AI Act?
    The EU recently passed the EU Artificial Intelligence Act (AI Act) with much fanfare. The Act is a milestone (see our blog post for more details). It is really relevant for providers and deployers of AI…
    Read more
    The Cyber Resilience Act: What You Should Know Now
    Almost unnoticed in the shadow of the AI Regulation, the so-called Cyber Resilience Act ("CRA") was passed by the European Parliament on March 12, 2024. This comprehensive law introduces extensive security…
    Read more