Worauf müssen Unternehmen achten, wenn sie KI in der Kommunikation einsetzen? Welche rechtlichen Rahmenbedingungen gilt es zu beachten? Transparenz ist ein wichtiger Faktor.
Ohne den Einsatz von Social Media ist eine zeitgemäße Unternehmenskommunikation nicht denkbar. Das gilt vor allem in der Konsumgüterindustrie. Wer seine Kunden erreichen will, der muss sie kennen, finden und Inhalte platzieren, die sie interessieren. Das ist kein neuer Trend, und Juristen beschäftigen die rechtlichen Aspekte von Social-Media-Marketing seit Jahren. So hat es die Influencerin Cathy Hummels schon 2021 bis zum Bundesgerichtshof (BGH) geschafft mit der Frage, ob sie ihre produktbezogenen Posts als 'Werbung' kennzeichnen muss. Muss sie nicht, wenn sie keine Gegenleistung erhält (BGH, Az. I ZR 126/20). Neu ist, dass sich Social-Media-Marketing durch den Einsatz Künstlicher Intelligenz (KI) beliebig skalieren lässt. Ob es um die Analyse von Nutzerverhalten geht oder um die Erstellung von Inhalten: KI verändert die Unternehmenskommunikation. Was ist hier zu erwarten? Worauf sollte man unbedingt achten?
Die Nutzung von KI-generierten Texten und Bildern (Output) eröffnet neue Möglichkeiten der Kommunikation: Die Produktion von Inhalten hat keine personellen Limits mehr, wird schneller und kostengünstiger. Die Kehrseite ist der Kontrollaufwand. Wer KI nutzt, der kennt die Anfälligkeit für inhaltliche Fehler. Die Anbieter von KI weisen mit gutem Grund genau darauf hin. Das führt auch aus rechtlicher Sicht dazu, dass KI-generierte Inhalte gründlich überprüft werden müssen. Wer Unwahrheiten veröffentlicht, der ist dafür rechtlich verantwortlich. Unwahre Angaben in der Unternehmenskommunikation sind oft wettbewerbswidrig. Ansprüche von Wettbewerbern und Verbraucherschutzverbänden können die Folge sein.
Neben der Haftung für inhaltliche Fehler lautet ein Kernthema bei der Output-Nutzung Transparenz. Das Transparenzgebot gilt bei jeder öffentlichen Kommunikation, es ist in etlichen Normen verankert. Es besagt im Kern, dass der Zweck und die Herkunft einer Veröffentlichung erkennbar sein müssen: Wer für ein Produkt wirbt, darf das nicht im Gewand einer redaktionellen Berichterstattung tun; wer einen fremden Text veröffentlicht, darf ihn nicht als eigenen ausgeben; und wer KI-generierte Inhalte wiedergibt, der darf sich nicht als Autor bezeichnen. Das ergab sich schon bisher aus der bestehenden Gesetzeslage.
Im Mai 2024 ist durch mit Verabschiedung der KI-Verordnung der EU (AI Act) das Transparenzgebot jetzt auch speziell für Inhalte geregelt worden, die mit KI generiert sind. Danach muss der künstliche Charakter von Deepfakes offengelegt werden (Art. 52 Abs. 3 AI Act), gleiches gilt bei jeder Interaktion von KI mit Menschen (Art. 52 Abs. 1 AI Act), also auch bei automatisierten Postings und Chatbot-Inhalten. Die Transparenzpflichten nach dem AI Act treten erst im Sommer 2026 in Kraft. Verstöße gegen das Transparenzgebot können aber auch nach aktueller Rechtslage Folgen haben, insbesondere sind wettbewerbsrechtliche Ansprüche wegen irreführender Werbung denkbar.
Wegen des Transparenzgebots ist es sehr wichtig, darauf hinzuweisen, dass ein Text oder ein Bild KI-generiert sind, wenn das nicht aus sich heraus erkennbar ist. Ein solcher Hinweis kann beispielsweise nach Art eines Fotocredits lauten 'KI-generiert' oder 'Erstellt unter Einsatz von Dall-E'. In der Praxis taucht häufig die Frage auf, wie mit Mischformen umzugehen ist. Gerade Textautoren arbeiten häufig so, dass sie sich zunächst einen Vorschlag von einer generativen KI-Anwendung machen lassen, ihn dann aber überarbeiten. Ob ein Hinweis auf dieses Vorgehen rechtlich geboten ist, hängt davon ab, wie viel vom KI-Text im Endergebnis noch vorhanden ist. Sind ganze Sätze oder Absätze übernommen, dann muss auf den Ursprung hingewiesen werden. Sind dagegen nur noch Struktur und Information übernommen, dann ist das nicht notwendig – Chat GPT ist dann nur als Recherche-Tool genutzt worden.
Ein weiteres wesentliches Output-Thema betrifft Persönlichkeitsrechte. Kurz gesagt: Finger weg von Deep Fakes in der Werbung! Aber auch die bloße Bezugnahme auf reale Personen, insbesondere Prominente, ist – wie immer in der Unternehmenskommunikation – ein No-Go, es sei denn sie haben eingewilligt. Das gilt selbst dann, wenn transparent gemacht wird, dass es sich um KI-Darstellungen handelt. Denn die Kommerzialisierung von Persönlichkeitsrechten löst immer Ansprüche aus, vor allem bei Prominenten. Dabei können auch im deutschen Recht hohe Zahlungsansprüche entstehen. Betroffene können das verlangen, was sie vertraglich vereinbart hätten, wenn sie gefragt worden wären. Weniger Probleme macht das Urheberrecht. Weder die Erstellung von Inhalten durch KI noch die Nutzung dieser Inhalte sind urheberrechtlich relevant. Ausnahmen kann dort geben, wo durch gezieltes Prompting ein Output provoziert wird, der bestehenden Werken zu ähnlich ist (z. B. »Erstelle eine Grafik, die wie ein Siebdruck von Marylin Monroe aus der Hand von Andy Warhol aussieht«).
Die Grundsätze zum Output gelten auch für Inhalte, die Influencer oder beauftragte Agenturen erstellen und posten. Gerade hier kann die Versuchung groß sein, Beiträge mit KI-Unterstützung zu produzieren – ein Vorgehen, das nicht im Interesse des Auftraggebers ist. Es ist deshalb ratsam, bestehende Verträge mit Influencern oder Agenturen um eine KI-Klausel zu ergänzen, mit der die Nutzung von KI für vertraglich geschuldete Inhalte untersagt oder eingeschränkt wird. Was das eigene Business Development angeht, so sollten Unternehmen klare Anweisungen zur Erstellung, Kontrolle und Veröffentlichung von KI-Inhalten machen – beispielsweise im Rahmen einer KI-Richtlinie. Im Haftungsfall können solche Vorgaben dabei helfen, ein Verschulden auszuschließen. Das kann Schadensersatzrisiken senken.
Soziale Medien bieten riesige Datenschätze, die mit KI-Hilfe analysiert und aufbereitet werden können, um das eigene Marketing zu optimieren. Wer spricht über welche Produkte, welche Memes gehen viral und warum? KI kann diese Datenmengen verarbeiten, Trends nachverfolgen und Ergebnisse analysieren. Die Plattformen selbst weiten zurzeit ihre Möglichkeiten für das Training von KI-Anwendungen aus: Meta hat am 1. Juni 2024 seine Nutzer darüber informiert, dass man ab Ende Juni 2024 Postings für Trainingszwecke der eigenen KIs nutzen werde. Für Unternehmen liegt es nahe, auf Mess- und Analyse-Tools der Plattformanbieter zurückgreifen. Die Gewinnung von Informationen auf eigene Faust ist technisch und rechtlich nicht trivial, vor allem dann, wenn sie nicht nur Inhalte auf eigenen Accounts betreffen. Denn das Auslesen von fremden Accounts zu Analysezwecken, das sogenannte »Scraping«, kann gegen Nutzungsbedingungen der Anbieter verstoßen und ist datenschutzrechtlich sowie urheberrechtlich problematisch. Es ist urheberrechtlich zwar erlaubt, frei zugängliche Inhalte für das KI-Training zu verwenden – wenn nicht der Rechtsinhaber einen Vorbehalt erklärt hat (§ 44b UrhG). Die Ausnahme gilt aber nur für KI-Training und nicht für die Datenauswertung unter Einsatz von KI. Außerdem sind die meisten Plattforminhalte nicht frei zugänglich, sondern erst nach Anmeldung abrufbar. Sofern man über die von Plattformanbietern angebotene Analyse-Tools hinaus Datenanalysen betreiben möchte, sollte man das deshalb über einen spezialisierten Dienstleister tun.