5 Wege, wie generative KI bereits die sozialen Medien ruiniert

Generative KI hat in den letzten Jahren zunehmend an Bedeutung gewonnen, insbesondere da soziale Medien versuchen, diese Technologie in ihre Plattformen zu integrieren. Doch trotz ihrer innovationsfördernden Möglichkeiten bringt generative KI auch erhebliche Herausforderungen für die Nutzer von sozialen Medien mit sich. Viele von uns haben bereits die negativen Aspekte erlebt, wie das Übermaß an minderwertigem Inhalt und die Erosion der Authentizität. In diesem Artikel beleuchten wir einige der gravierendsten Nachteile von generativer KI auf sozialen Medien und diskutieren, wie diese Veränderungen unser Online-Erlebnis beeinflussen. Lesen Sie weiter, um mehr über die Flut von KI-nichtsnutzigem Inhalt, den Verlust an Authentizität und weitere wichtige Themen zu erfahren.

1 Eine Flut von KI-nichtsnutzigem Inhalt

Wenn Sie häufig Plattformen wie Facebook nutzen, sind Sie wahrscheinlich schon einmal über KI-nichtsnutzigen Inhalt gestolpert. Dieser Begriff bezeichnet minderwertige Ausgaben von generativer KI, die surreale Kunstwerke und sinnlose Rezepte umfassen. Es gibt sogar ein X-Konto, das sich dem KI-nichtsnutzigen Inhalt auf Facebook widmet.

Häufig stammt dieser Inhalt von Spam-Seiten, die viral gehen wollen. Da Facebook virale Inhalte empfiehlt, bedeutet dies, dass Ihr Feed mit mehr Unsinn überflutet wird als gewohnt. Generative KI hat es einfacher denn je gemacht, solche Spam-Posts zu erzeugen, was dazu führt, dass echte Inhalte auf sozialen Medien übersehen werden.

2 Noch mehr Authentizität verlieren

Dontree_M/Shutterstock

Soziale Medien sind bekannt für ihre mangelnde Authentizität. Häufig zeigen Influencer Einblicke in ihr Leben, die darauf abzielen, ein Bild der Perfektion zu projizieren oder ein Produkt zu verkaufen, für das sie bezahlt wurden.

Doch die KI verstärkt diese Authentizitätskrise noch weiter. TikTok testet virtuelle Influencer, die es Unternehmen ermöglichen, mithilfe digitaler Avatare Werbung zu schalten, wie SocialMediaToday berichtet. Unterdessen testet Instagram eine Funktion, die Influencern erlaubt, KI-Bots von sich selbst zu erstellen, die auf Nachrichten von Fans antworten. Dieser Test wurde von Meta-CEO Mark Zuckerberg in seinem Instagram-Broadcast-Kanal angekündigt.

Diese Verdünnung des ohnehin geringen Authentizitätsgrades in sozialen Medien beschränkt sich nicht nur auf Influencer. KI wird auch verwendet, um Benutzerbeiträge in sozialen Netzwerken wie Reddit und X (Twitter) zu generieren. Während Chatbots, die dies tun können, bereits seit einiger Zeit existieren, haben die großen Sprachmodelle es immer schwieriger gemacht zu erkennen, was echt ist und was nicht. Bei jedem Besuch auf Reddit höre ich Nutzer, die andere beschuldigen, KI zur Erstellung eines Beitrags oder einer Geschichte eingesetzt zu haben.

Die KI-Plattformen der sozialen Medien befinden sich noch in der Entwicklung, was bedeutet, dass sie noch Fehler machen. Einige dieser Fehler tragen zur Verbreitung von Fehlinformationen bei oder verringern das Vertrauen der Nutzer in die Plattform.

Beispielsweise hat Meta AI auf einen Beitrag in einer Facebook-Gruppe geantwortet, in dem behauptet wurde, es handele sich um einen Elternteil mit einem „2e“-Kind (zweimal außergewöhnlich), das in einem Programm für begabte Schüler eingeschrieben war, wie Sky News berichtete. Glücklicherweise sind die Antworten von Meta AI auf Facebook eindeutig gekennzeichnet, sodass die Nutzer erkennen konnten, dass die Antwort nicht echt war. Dies wirft jedoch Fragen zur Zuverlässigkeit von KI-Tools wie Meta AI auf, wenn sie sich in Gespräche einmischen, in denen sie nichts zu suchen haben.

Inzwischen wurde Grok AI (X’s KI-Chatbot) wegen der Verbreitung von Fehlinformationen kritisiert. Ein Beispiel hierfür war die fälschliche Beschuldigung des NBA-Spielers Klay Thompson, Häuser verwüstet zu haben, nachdem die KI den Basketballjargon missverstanden hatte, der Fehlschüsse als „Ziegel“ bezeichnet.

Während einige KI-Halluzinationen komisch sind, sind andere Fehlinformationen besorgniserregend und haben reale Konsequenzen.

3 Tod der Internet-Theorie erkennen

Die Theorie des „toten Internets“ besagt, dass der Großteil des Inhalts im Internet von Bots generiert wird. Während dies in der Vergangenheit leicht belächelt werden konnte, erscheint es angesichts der Flut an KI-Spam und Antworten in sozialen Medien immer plausibler.

Die Tatsache, dass soziale Medien Unternehmen auch dazu übergehen, Bots als Nutzer zu integrieren, macht diese Idee realistischer als je zuvor. So wurde sogar Butterflies AI ins Leben gerufen, eine soziale Medienplattform, auf der einige Nutzer tatsächlich KI-Bots sind. Während Bots auf sozialen Medien nützlich sein können, spricht es mich nicht an, wenn sie sich als andere Nutzer ausgeben.

In Bezug auf die tägliche Benutzererfahrung hat generative KI es Spam-Bots erleichtert, echte Nutzer zu imitieren. Kürzlich habe ich auf X einen Beitrag veröffentlicht, um ein Kunstwerk in Auftrag zu geben, und mein Postfach wurde von Antworten von Bots überflutet. Es wird immer schwieriger, echte Nutzer von Bots zu unterscheiden.

4 Nutzer müssen Wege finden, um ihre Inhalte vor dem Scraping durch KI zu schützen

Nutzer bemühen sich auf vielfältige Weise, ihre Inhalte vor der Nutzung in KI-Datensätzen zu schützen. Doch es ist nicht immer so einfach, sich abzumelden. Wenn Ihre Beiträge öffentlich sind, stehen die Chancen gut, dass sie bereits zur Schulung von KI verwendet wurden.

Infolgedessen testen Nutzer verschiedene Möglichkeiten, um ihre Daten zu schützen. Dazu gehört der Wechsel zu privaten Profilen sowie Datenvergiftung. Während die Nutzung von Nightshade zur Vergiftung von Kunstwerken keine Auswirkungen auf die Sichtbarkeit der Bilder für die Nutzer hat, können andere Formen der Datenvergiftung möglicherweise die Inhalte beeinflussen, die wir in sozialen Medien sehen.

Wenn immer mehr Nutzer ihre Profile in öffentlichen sozialen Netzwerken auf privat umstellen, wird es schwieriger, Nutzer und Inhalte zu finden, die einem gefallen. Und da Künstler von Plattformen abwandern, die Trainingsdaten für generative KI bereitstellen, werden die Menschen, die einfach nur ihre Arbeiten bewundern wollen, dies verpassen, es sei denn, sie wechseln zu Nischenplattformen.

Es gibt einige Anwendungen für generative KI auf diesen Plattformen, doch manche Menschen würden argumentieren, dass wir generative KI in sozialen Medien nicht wirklich benötigen. Unabhängig von unseren Ansichten hat die generative KI bereits in vielerlei Hinsicht die sozialen Medien grundlegend verändert.

Zusammenfassung: Insgesamt ist die Einführung von generativer KI in sozialen Medien mit einer Vielzahl von Herausforderungen verbunden, einschließlich der Flut an minderwertigem Inhalt und dem Verlust von Authentizität. Während sich die Nutzer bemühen, ihre Inhalte zu schützen und die Integrität ihres Online-Erlebnisses zu bewahren, bleibt die Frage, welche Rolle generative KI in der Zukunft sozialer Medien spielen wird. Eines ist jedoch sicher: Die Technologie hat das Gesicht sozialer Plattformen bereits nachhaltig verändert und wird weiterhin für Debatten sorgen.