Normale Ansicht

Received before yesterday

Meta: Das krumme Geschäft mit betrügerischer Werbung

01. Dezember 2025 um 11:00

Der Beitrag Meta: Das krumme Geschäft mit betrügerischer Werbung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Meta Werbung Werbeanzeigen Scam Betrug Facebook Instagram

Internen Dokumenten zufolge stammen zehn Prozent der Einnahmen von Facebook-Konzern Meta im Jahr 2024 aus Werbeanzeigen für Betrugsversuche und verbotene Waren. Die europäischen Digitalgesetze wie das Gesetz über digitale Dienste (DSA) sollen dem eigentlich entgegenwirken, erweisen sich aber als Papiertiger. Eine kommentierende Analyse.

Meta verdient mit betrügerischer Werbung Milliarden

  • Wie die Nachrichtenagentur Reuters unter Berufung auf interne Dokumente berichtet, hat Meta im vergangenen Jahr rund 16 Milliarden US-Dollar mit Werbung für betrügerische Websites oder verbotene Produkte gemacht. Statt gegen solche Anzeigen vorzugehen, sind sie zu einem Geschäftsmodell geworden. Denn: Für risikoreiche Werbung müssen Anbieter mehr Geld zahlen.
  • Die Europäische Kommission hat bereits im April 2024 ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta mit irreführender Werbung auf Instagram und Facebook gegen das Gesetz über digitale Dienste (DSA) verstoßen hat. Trotz zahlreicher Indizien sind die Ermittlungen eineinhalb Jahre später immer noch nicht abgeschlossen.
  • Der Verbraucherzentrale Bundesverband hat 653 Fakeshops untersucht, für die der Fakeshop-Finder der Organisation eine Warnung ausgesprochen hat. Das Ergebnis: Für die Hälfte der Seiten schalteten Google oder Meta Werbung. Die Shop-Betreiber erreichen mit betrügerischen oder irreführenden Inhalten ein Millionen-Publikum.

Fake-Shop Betreiber zahlen Meta mehr Geld

Ob illegales Glücksspiel, sexuelle Dienstleistungen oder dubiose Gesundheitsprodukte: Viele Instagram- und Facebook-Nutzer dürften solche oder ähnliche Anzeigen kennen – und sich vielleicht fragen, warum ihnen diese überhaupt angezeigt werden.

Einige davon sind so unseriös, dass es fast schon erstaunlich ist, dass Metas automatisierte Systeme diese nicht als Betrug identifizieren können. Der Grund: Die Systeme schlagen erst bei einer Betrugs-Wahrscheinlichkeit von mehr als 95 Prozent an.

Darunter gelten Anzeigen zwar als risikoreich, kenntlich macht Meta das aber nicht. Im Gegenteil: Das Unternehmen gibt Fakeshop-Betreibern eine Bühne und stopft sich obendrein die Taschen voll. Betrüger werden zwar immer besser und dank KI wird es immer einfacher, seriös aussehende Inhalte zu erstellen.

Milliarden-Konzern Meta sollte aber technisch in der Lage sein, diese zu erkennen – wenn man es denn wollen würde. Ein Glück aber, dass es europäische Digitalgesetze wie den DSA gibt, einen zahnlosen Tiger im Schneckentempo.

Stimmen

  • Meta-Sprecher Andy Stone in einem Statement zu den Vorwürfen: „Wir bekämpfen Betrug und Scams aggressiv, weil die Nutzer unserer Plattformen diese Inhalte nicht wollen, seriöse Werbekunden sie nicht wollen und wir sie auch nicht wollen. In den letzten 18 Monaten haben wir die Nutzermeldungen zu betrügerischen Anzeigen weltweit um 58 Prozent reduziert.“
  • Kommissionspräsidentin Ursula von der Leyen zur Einleitung der Untersuchungen gegen Meta im April 2024: „Wenn wir einen Verstoß gegen die Regeln vermuten, handeln wir. Große digitale Plattformen müssen ihren Verpflichtungen gerecht werden, um genügend Ressourcen dafür einzusetzen, und die heutige Entscheidung zeigt, dass wir es ernst meinen.“
  • Ramona Pop, Vorständin beim Verbraucherzentrale Bundesverband, kritisiert: „Fakeshops sind ein großes Ärgernis für Verbraucherinnen und Verbraucher. Es ist inakzeptabel, wenn Fakeshops über Werbung bei Google, Facebook oder Instagram auf sich aufmerksam machen können und Verbraucher:innen so auf Betrug hereinfallen. Die großen Plattformen müssen stärker gegen betrügerische Werbung vorgehen. Die Europäische Kommission muss die Regeln des Digital Services Act konsequent durchsetzen.“

Einnahmen aus Verstößen höher als Strafe

Sollten Meta trotz aller Verzögerungen und Hürden seitens der EU Konsequenzen folgen, könnte das Unternehmen wegen eines Verstoßes gegen den DSA mit einer Strafe von maximal sechs Prozent seines Jahresumsatzes belangt werden. Für Meta ist das ein kalkulierbares Risiko.

Denn: Wieso sollte sich der Konzern an EU-Recht halten, wenn die Einnahmen aus Verstößen höher sind als die Strafe? Aus den internen Dokumenten, die Reuters ausgewertet hat, geht zwar hervor, dass das Unternehmen künftig weniger betrügerische Werbeanzeigen zulassen will.

Allerdings befürchtet man auch, dass eine abrupte Reduzierung die Geschäftszahlen zu sehr beeinträchtigen könnte. Heißt konkret: Die Bemühungen dürften sich in Grenzen halten – zulasten der Verbraucher.

Wenn die EU dem Treiben wirklich Einhalt gebieten will, wird das aktuelle Vorgehen sowohl vom Umfang her als auch aufgrund des Schneckentempos bei Weitem nicht ausreichen.

Auch interessant:

Der Beitrag Meta: Das krumme Geschäft mit betrügerischer Werbung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Instagram und Facebook: Meta vertuscht Studie zu psychischen Schäden

27. November 2025 um 11:00

Der Beitrag Instagram und Facebook: Meta vertuscht Studie zu psychischen Schäden erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Meta Studie Instagram Facebook Psyche Sucht Social Media

US-Konzern Meta soll eine eigene Studie bewusst unter Verschluss gehalten haben, da mit der Veröffentlichung ein erheblicher Imageschaden einhergegangen wäre. Den Ergebnissen zufolge würde sich der Verzicht auf Instagram und Facebook positiv auf die Psyche auswirken. Eine kommentierende Analyse. 

Meta-Studie: Verzicht auf Instagram und Facebook positiv für die Psyche

  • Meta hat unter dem Projektnamen „Mercury“ im Jahr 2020 die Auswirkungen von Instagram und Facebook auf seine Nutzer untersucht. Bereits ein einwöchiger Verzicht hätte demnach positive Auswirkungen auf die Psyche gehabt. Wie aus Gerichtsakten hervorgeht, sollen Nutzer über geringere Gefühle von Depression, Angst, Einsamkeit und weniger sozialen Druck berichtet haben.
  • Die Enthüllungen kamen im Zuge einer Klage mehrerer US-Schulbezirke gegen Meta, Google, TikTok und Snapchat ans Licht. Der Vorwurf: Die Unternehmen sollen bekannte Risiken ihrer Produkte bewusst vertuscht haben. Meta habe aus Sorge um sein Nutzerwachstum die Sicherheit von Kindern und Jugendlichen absichtlich vernachlässigt.
  • Aus den Gerichtsakten geht hervor, dass Meta Sicherheitsfunktionen bewusst wirkungslos gestaltet haben soll. Maßnahmen gegen Kinderschänder seien blockiert worden. In einem besonders brisanten Fall hat das Unternehmen einen Account offenbar erst nach 17 nachgewiesenen Fällen versuchter sexueller Nötigung gesperrt.

Profitmaximierung über allem

Meta sitzt auf einem Pulverfass. Denn sollten sich die Vorwürfe bewahrheiten, droht dem Unternehmen ein erheblicher wirtschaftlicher Schaden, da Umsätze unmittelbar mit der Nutzungsdauer von Instagram und Facebook zusammenhängen.

Besonders skrupellos ist, dass Meta Nutzer offenbar lediglich wie Zahlen in einer Excel-Tabelle behandelt. Die wirtschaftlichen Interessen scheinen klar vor dem Wohlbefinden und der Sicherheit der Nutzer zu stehen.

Eine breitere Debatte über die gesundheitlichen Risiken von Instagram und Facebook könnte die Plattformen grundlegend infrage stellen. Denn: Profitmaximierung steht vor allem über dem Wohl junger Nutzer – obwohl Meta genau um die Risiken seiner Produkte weiß, diese aber bewusst ignoriert.

Stimmen

  • Laut Meta-Sprecher Andy Stone sei die Studie aufgrund methodischer Fehler eingestellt worden: „Wir widersprechen diesen Behauptungen, die sich auf selektiv ausgewählte Zitate und falsch informierte Meinungen stützen, entschieden. Aus den vollständigen Unterlagen geht hervor, dass wir seit über einem Jahrzehnt Veränderungen zum Schutz von Jugendlichen vornehmen.“
  • Die dänische Psychologin Lotte Rubaek erhob bereits Anfang 2024 schwere Vorwürfe: „Ich kann nicht länger Teil des Expertengremiums von Meta sein, da ich nicht mehr daran glaube, dass unsere Stimme einen positiven Einfluss auf die Sicherheit von Kindern und Jugendlichen hat. Oberflächlich betrachtet scheint es, als würde ihnen das Thema am Herzen liegen, aber hinter den Kulissen gibt es eine andere Agenda.“
  • Als Nick Clegg, ehemaliger Leiter der Meta-Abteilung für globale Politik, zusätzliche Mittel zur Stärkung der Kindersicherheitsmaßnahmen beantragte, lehnte Mark Zuckerberg per SMS ab. Er schrieb, dass er dem Antrag keine Priorität einräumen würde, „wenn ich mich auf eine Reihe anderer Bereiche konzentriere, wie zum Beispiel den Aufbau des Metaversums“.

Mögliche Konsequenzen

Am 26. Januar 2026 soll im Zuge der Klage gegen Meta und Co. eine Anhörung vor dem Bezirksgericht von Nordkalifornien stattfinden. Diese könnte einen Richtungswechsel einleiten. Denn Plattformen wie Facebook und Instagram können sich ethischen Fragen dann nicht länger entziehen.

Die folgenden Gerichtsverfahren könnten die Ära des konsequenzlosen Datensammelns beenden, wenn Meta und Co. für die negativen Auswirkungen ihrer Produkte zur Rechenschaft gezogen werden. Einerseits, indem Nutzer und vor allem Werbetreibende fernbleiben.

Andererseits drohen Strafzahlungen und verschärfte Regulierungen. Sollten sich die Vorwürfe bestätigen, könnte sogar das gesamte Geschäftsmodell von Meta kollabieren. Denn: Social Media wird mehr und mehr zur politischen Bühne für Nutzerrechte, während Digital Detox, Mental Health-Apps und alternative Plattformen an Bedeutung gewinnen.

Auch interessant: 

Der Beitrag Instagram und Facebook: Meta vertuscht Studie zu psychischen Schäden erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Herkunftsangaben auf X entlarvt Trump-Accounts aus Afrika

25. November 2025 um 11:00

Der Beitrag Herkunftsangaben auf X entlarvt Trump-Accounts aus Afrika erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Über dieses Konto X Twitter Herkunfsangabe

Eine neue Funktion auf X (ehemals Twitter) erlaubt es Nutzern, sehen zu können, in welchem Land oder welcher Region andere Konten registriert sind, beziehungsweise von wo aus sie überwiegend betrieben werden. Ziel des Unternehmens ist mehr Transparenz. Zum Start herrschte aber absolutes Chaos. Eine kommentierende Analyse.

„Über dieses Konto“: Neue Herkunftsangabe auf X

  • Die Funktion „Über dieses Konto“ ist seit dem 21. November 2025 verfügbar. Sie erlaubt es Nutzern, zu sehen, woher andere Konten stammen. Die Angabe stellt keinen exakten Standort dar, sondern das Land oder die Region, aus der ein Konto überwiegend betrieben wird. Die Informationen sind über das Anmeldedatum im Profil einsehbar.
  • X hat bislang keine genauen technischen Kriterien für seine Herkunftsangaben offengelegt. Laut Help Center werden unter anderem IP-Adressen herangezogen. Im Bereich „Über dieses Konto“ erscheinen zudem Angaben zur Region des App Stores, dem Zeitpunkt der Accounterstellung und der Anzahl der Namensänderungen.
  • Die Herkunftsangabe auf X hat für Aufregung gesorgt. Sowohl große Accounts von Trump-Fans als auch russische oder palästinensische Konten kommen demnach aus Asien, Pakistan oder Afrika. Der X-Account des US-Senders Fox News soll aus Deutschland und der von Homeland Security aus Israel stammen. X hat bereits erste Fehler eingeräumt und Korrekturen vorgenommen.

Manipulation, Fehler und Instrumentalisierung

Der Blick auf einige große Regierungs-Accounts deutet darauf hin, dass es bei der Umsetzung der Funktion „Über dieses Konto“ Fehler gegeben hat. Zudem lassen sich die Angaben offenbar über VPN-Dienste, Proxy oder alternative App Stores manipulieren.

Viele große Accounts – vor allem aus dem Trump-Lager – scheinen aber tatsächlich nicht aus den USA zu stammen, obwohl sie sich ausschließlich an Menschen in den Vereinigten Staaten richten. Ziel dürfte es sein, Unmut zu schüren und politische Entscheidungen zu beeinflussen.

In solchen Fällen kann die Funktion dabei helfen, Manipulationen zu erkennen. Die Aussagekraft ist aber begrenzt. Nutzer können sich etwa in einem neuen Land aufhalten, während ihre App Store-Region noch auf ihren vorherigen Wohnort verweist. Einige Nutzer könnten aufgrund von Fehlern zu Unrecht an den Pranger gestellt werden.

Stimmen

  • Nikita Bier, Produktchef bei X, hat die Funktion wie folgt angekündigt: „Dies ist ein wichtiger erster Schritt zur Sicherung der Integrität des globalen Marktplatzes. Wir planen, den Nutzern noch viele weitere Möglichkeiten zur Überprüfung der Authentizität der Inhalte auf X zur Verfügung zu stellen.“
  • US-Journalist Brett Meiselas in einem Video: „Denken Sie an die ausländischen Einflussnahmen, die derzeit über diese App stattfinden. Denken Sie an die Gesetzgeber, die sich durch solche Accounts unter Druck gesetzt fühlen. Denken Sie an die Desinformation, die sich durch all diese Accounts verbreitet.“
  • Harry Sisson, Influencer und Mitglied der jungen US-Demokraten, in einem Post: „Dies ist zweifellos einer der großartigsten Tage auf dieser Plattform. Zu sehen, wie all diese MAGA-Konten entlarvt werden, die versuchen, die Vereinigten Staaten zu zerstören, ist eine vollständige Rechtfertigung für Demokraten wie mich und viele andere hier, die davor gewarnt haben.“

Herkunftsangabe auf X – auch zu persönlichen Profilen

Die neue X-Funktion kann vor allem für Aktivisten, Journalisten oder Oppositionelle in autoritären Staaten gefährlich sein, wenn die Plattform ihr Herkunftsland oder ihre ungefähre Region kenntlich macht oder indirekt bestätigt, dass sie einen Proxy oder VPN nutzen.

Die Angaben könnten zudem politisch instrumentalisiert werden, wenn einem Konto fälschlicherweise Informationen zugeordnet werden. Einerseits schafft die Herkunftsanzeige zwar Transparenz, indem sie dabei helfen kann, politische Accounts besser einzuschätzen.

Andererseits scheint sie vor Fehlern nur so zu strotzen und manipulierbar zu sein. Dass X im Gegensatz zu anderen Plattformen auch Herkunftsangaben zu persönlichen Profilen anzeigt, könnte ein großes Datenschutzrisiko für die Privatsphäre darstellen. Die Funktion ist deshalb mit Vorsicht zu genießen.

Auch interessant: 

Der Beitrag Herkunftsangaben auf X entlarvt Trump-Accounts aus Afrika erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Größtes Datenleck aller Zeiten: 3,5 Milliarden WhatsApp-Nutzer betroffen

21. November 2025 um 11:04

Der Beitrag Größtes Datenleck aller Zeiten: 3,5 Milliarden WhatsApp-Nutzer betroffen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Forscher der Universität Wien haben eines der größten Datenlecks aller Zeiten aufgedeckt. Eine Sicherheitslücke bei WhatsApp ermöglichte es ihnen, Profilinformationen von 3,5 Milliarden Accounts und damit nahezu allen Nutzern abzugreifen. Eine kommentierende Analyse.

WhatsApp-Datenleck: Milliarden Nutzer betroffen

  • Um andere WhatsApp-Nutzer zu finden, kann der Messenger über den Contact Discovery-Modus auf Telefon-Kontakte zugreifen. Die Forscher zeigten, wie dieser Mechanismus missbraucht werden konnte, um mehr als 100 Millionen Telefonnummern pro Stunde abzufragen, wodurch sie Profilinformationen zu mehr als 3,5 Milliarden Konten in 245 Ländern erhielten.
  • Laut Studie waren keine konkreten Nachrichteninhalte betroffen. Heißt konkret: Die Ende-zu-Ende-Verschlüsselung hat funktioniert. Allerdings konnten die Forscher Telefonnummern, öffentliche Profilbilder sowie Profiltexte und Zeitstempel abrufen. Alle abgerufenen Daten wurden vor der Veröffentlichung der Analyse gelöscht. WhatsApp hat die Sicherheitslücke geschlossen.
  • Problematisch sei den Forschern zufolge, dass rund 30 Prozent der Nutzer persönliche Informationen von sich preisgegeben hätten. Aus diesen Daten konnten sie Rückschlüsse zu Religionszugehörigkeiten, sexuellen Orientierungen oder politischen Einstellungen ableiten.

Einordnung

WhatsApp beteuert, dass es keine Hinweise darauf gebe, dass böswillige Akteure die Sicherheitslücke ausgenutzt hätten. Das lässt sich bislang aber kaum unabhängig bestätigen. Nutzer sollten zwar nicht in Panik verfallen, aber gegebenenfalls überdenken, welche und wie viele Informationen sie von sich preisgeben.

Im Worst Case droht kein unmittelbarer Schaden. Da WhatsApp den Forschern zufolge aber erst nach wiederholten Warnhinweisen und Monate später reagiert hat, könnten theoretisch Daten abgeflossen sein.

Angreifer hätten etwa die Möglichkeit, diese für gezielte Angriffe wie betrügerische SMS oder Spam-Anrufe zu missbrauchen. Besonders pikant: Die Forscher konnten Rückschlüsse zu Nutzern aus Ländern ableiten, in denen WhatsApp verboten ist oder staatlich überwacht wird.

Autoritären Staaten könnten die Nutzung des Dienstes dadurch nachverfolgen. Für Oppositionelle, Journalisten oder Aktivisten kann das lebensbedrohlich sein.

Stimmen

  • Hauptstudienautor Gabriel Gegenhuber von der Universität Wien: „Üblicherweise sollten nicht so viele Anfragen in so kurzer Zeit und von einer Quelle bzw. von einem Server beantwortet werden. Darin lag die Sicherheitslücke, denn wir konnten quasi unbegrenzte Anfragen an den Server stellen und so schließlich eine weltweite Erhebung machen“.
  • Co-Autor Aljosha Judmayer ergänzte: „Die Ende-zu-Ende-Verschlüsselung schützt den Inhalt von Nachrichten, aber nicht unbedingt die damit verbundenen Metadaten“, erklärt der Letztautor Aljosha Judmayer von der Universität Wien. „Unsere Arbeit zeigt, dass Datenschutzrisiken auch entstehen können, wenn solche Metadaten in großem Umfang gesammelt und analysiert werden.“
  • Nitin Gupta, VP of Engineering bei WhatsApp, in einer Stellungnahme: „Wir sind den Forschern dankbar. Durch die Zusammenarbeit konnte eine neuartige Aufzählungstechnik identifiziert werden, die unsere Grenzen überschritt. Wichtig ist, dass die Forscher die gesammelten Daten sicher gelöscht haben und wir keine Hinweise darauf gefunden haben, dass böswillige Akteure diesen missbraucht haben.“

Es braucht unabhängige Datenschützern

Das Datenleck offenbart, wie unbedarft viele Nutzer mit Informationen im Netz umgehen. Das Vertrauen in Messenger und digitale Medien scheint nach wie vor hoch zu sein. Dabei sind bereits die Datenpraktiken vieler Unternehmen nicht unbedenklich, da umfassende Nutzerprofile entstehen.

Auch wenn die Lücke mittlerweile geschlossen ist und selbst wenn keine Informationen abgefischt wurden, zeigt der Fall, wie wichtig die Arbeit von unabhängigen Datenschützern ist und dass Unternehmen gut daran tun, mit diesen zusammenzuarbeiten.

Aufgrund der Größe des Datenlecks ist davon auszugehen, dass Regulierungsbehörden prüfen werden, ob Meta gegen Datenschutzregeln verstoßen hat. Da das Unternehmen nicht sofort reagiert hat, könnten auch juristische Konsequenzen und Klagen folgen.

Um sich zu schützen, sollten Nutzer die Zwei-Faktor-Authentifizierung (2FA) aktivieren, einen Passkey erstellen und ihre Privatsphäre-Einstellungen anpassen. Bei Nachrichten von unbekannten Nummern sollte man immer Vorsicht walten lassen und nicht auf Links oder Dateien klicken.

Auch interessant:

Der Beitrag Größtes Datenleck aller Zeiten: 3,5 Milliarden WhatsApp-Nutzer betroffen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

LinkedIn: KI-Training mit deinen Daten deaktivieren

11. November 2025 um 14:15

Der Beitrag LinkedIn: KI-Training mit deinen Daten deaktivieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

LinkedIn KI-Training deaktivieren

Ab November 2025 nutzt LinkedIn Nutzerdaten zum Training seiner KI-Modelle. Nutzer müssen der Verwendung ihrer Daten ab sofort aktiv widersprechen. Wir zeigen dir, wie du das KI-Training mit deinen Daten auf LinkedIn deaktivieren kannst. 

Zum 3. November 2025 hat LinkedIn seine Nutzungsbedingungen und Datenschutzrichtlinien geändert. Ab sofort will die Microsoft-Tochter Nutzerdaten für das Training von generativen KI-Modellen verwenden.

Diese Daten nutzt LinkedIn für das KI-Training

Auf die Änderungen weist das Unternehmen unter anderem durch Einblendungen für eingeloggte Nutzer hin. Außerdem können sie sich im LinkedIn Hilfe-Bereich über die Aktualisierung informieren. Dort schreibt die Plattform:

Ab dem 3. November 2025 verwenden wir einige Daten von Mitgliedern […], um inhaltsgenerierende KI-Modelle zu trainieren, die Ihre Erfahrung optimieren und unsere Mitglieder besser mit Jobangeboten verbinden. Dies umfasst beispielsweise Daten aus Ihrem Profil sowie Inhalte, die Sie auf LinkedIn veröffentlichen.

Konkret bedeutet das, dass die Plattform neben Profildaten zu Name, Beruf, Ausbildung und Fähigkeiten der User auch stellenspezifische Informationen aus den gespeicherten Lebensläufen verwendet.

Betroffen sind außerdem alle Beiträge und Kommentare, die Nutzer teilen sowie Nachrichten in Gruppen-Chats. Außerdem nutzt LinkedIn Daten aus Fragen oder Texten, die in der KI-Chatfunktion eingegeben werden sowie aus Interaktionen mit dem Support.

Diese Informationen sind vom KI-Training ausgeschlossen

LinkedIn gibt an, keine privaten Nachrichten und InMails für sein KI-Training zu nutzen. Auch Login-Daten wie Passwörter und Zahlungsinformationen werden nicht verwendet.

Außerdem spart das Unternehmen die Daten von Schülern und anderen Personen aus, die sich aktuell in einer weiterführenden Schule oder entsprechenden Bildungseinrichtung befinden.

Ziel ist es, KI-Dienste zu verbessern, die helfen sollen, bessere Inhalte zu erstellen und Arbeitgeber dabei zu unterstützen, passendere Kandidaten zu finden. LinkedIn erklärt weiter:

Die Einstellung bezieht sich auf das Training und die Optimierung generativer KI-Modelle, die zum Erstellen von Inhalten (z. B. Vorschlägen für Beiträge oder Nachrichten) verwendet werden. Sie gilt nicht für KI-Modelle, die LinkedIn und seine Partnerunternehmen für andere Zwecke entwickelt, wie etwa zur Personalisierung Ihrer LinkedIn Erfahrung oder für Modelle zu Zwecken der Sicherheit, des Vertrauens oder des Schutzes vor Missbrauch.

Bei der Verarbeitung der Nutzerdaten zum Training der KI-Modelle beruft sich LinkedIn auf sein „berechtigtes Interesse“. Wer nicht widerspricht, gibt der Plattform automatisch die Einwilligung zur entsprechenden Datenverarbeitung.

KI-Training auf LinkedIn deaktivieren

Wer nicht will, dass LinkedIn seine Daten für das KI-Training verwendet, kann dem aktiv widersprechen. So gehts:

  • Logge dich zunächst bei LinkedIn ein.
  • Klicke anschließend auf dein Profilbild.
  • Gehe dann zum Reiter „Einstellungen & Datenschutz„.
  • Dort kannst du im Menü „Datenschutz“ auswählen.
  • Unter „So verwendet LinkedIn Ihre Daten“ findest du den Abschnitt „Daten zur Verbesserung generativer KI„. Die Option ist seit Anfang November standardmäßig aktiviert.
  • Über einen kleinen Pfeil gelangst du zu einem Schieberegler, den du per Klick deaktivieren kannst.

Nun darf LinkedIn deine Daten und Inhalte nicht mehr verwenden, um inhaltsgenerierende KI-Modelle zu trainieren.

Nutzer müssen sich aktiver um Datenschutz bemühen

Die jüngsten Änderungen in den Nutzungsbedingungen von LinkedIn markieren einen Wendepunkt im Verhältnis zwischen der Plattform und ihren Nutzern.

Wie ZDFheute berichtete, kündigte das Unternehmen an, weniger vorab über Änderungen der Allgemeinen Geschäftsbedingungen und der Datenverarbeitung zu informieren.

Für Nutzer bedeutet das, dass sie regelmäßig in den Datenschutz- und Kontoeinstellungen prüfen müssen, ob neue Funktionen oder Datennutzungsoptionen hinzugekommen sind. Wer seine Daten vor dem Training schützen möchte, muss wachsam bleiben und proaktiv handeln.

Auch interessant: 

Der Beitrag LinkedIn: KI-Training mit deinen Daten deaktivieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Chatkontrolle: Deutschland torpediert EU-Pläne

10. Oktober 2025 um 11:00

Der Beitrag Chatkontrolle: Deutschland torpediert EU-Pläne erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Chatkontrolle EU Deutschland

Der EU-Rat wollte eigentlich am 14. Oktober 2025 über die Einführung einer proaktiven Chatkontrolle abstimmen. Die Bundesregierung hat sich dazu lange bedeckt gehalten, nun aber ein eindeutiges Signal gesendet. Denn: Sollte die EU ein entsprechendes Gesetz verabschieden, wären alle Chats über WhatsApp und Co. potenziell staatlich überwachbar.

Chatkontrolle soll Ende-zu-Ende-Verschlüsselung aushebeln

  • Was Freunde, Bekannte oder Arbeitskollegen in privaten Chats auf WhatsApp, Threema oder Signal untereinander schreiben, geht nur sie etwas an. Deshalb setzen viele Messenger auf die sogenannte Ende-zu-Ende-Verschlüsselung. Das heißt: Eine Nachricht ist während der gesamten Übertragung verschlüsselt und kann nur mit dem richtigen Schlüssel vom Empfänger gelesen werden.
  • Die EU will diese Sicherheitsbarrieren umgehen und auf Client-Side-Scanning setzen, um Straftaten aufzuklären oder vorzubeugen. Diese Methode durchsucht Nachrichten, Bilder, Audiodateien und Videos BEVOR sie für den Versand verschlüsselt werden. Über technische Programme würden also lokale Dateien auf Smartphones durchsucht werden. Für manche Parteien könnte das ein autokratisches Machtinstrument sein.
  • Für solche Eingriffe in die Privatsphäre müssten Messenger proaktiv Sicherheitslücken in ihre Systeme einbauen, die staatlichen Hackern ein Hintertürchen öffnen. Sollten derartige Vorschriften in Europa eingeführt werden, werden wir Nutzer unsere liebsten Messenger verlieren. So hat beispielsweise Signal angekündigt, den EU-Markt zu verlassen, wenn man dazu gezwungen wird, eine Überwachung zu ermöglichen.

ChatKontrolle: EU-Pläne vorerst gescheitert

Die Diskussion über eine Chatkontrolle in Europa ist nicht neu. Schon seit 2022 debattieren sowohl die Mitglieder des EU-Parlaments als auch die Regierungschefs im EU-Rat über die Einführung von Kontrollmöglichkeiten, um etwa die Verbreitung von Kinderpornografie zu verhindern oder Straftaten aufzuklären. Allerdings ist bislang jeder Vorstoß des EU-Rats gescheitert – zuletzt im Jahr 2024.

Das liegt auch daran, dass sich bislang Deutschland immer gegen eine staatliche Nachrichtenüberwachung gestellt hat – anscheinend sind wir doch dazu in der Lage, aus unserer Geschichte zu lernen. Beim aktuellen Vorstoß unter der dänischen Ratspräsidentschaft, über den am 14. Oktober 2025 abgestimmt werden soll, ist die Ausgangslage anders.

Zwar warnen viele Unternehmen und Experten vor den Folgen einer Chatkontrolle – und sogar die Initiative „Chatkontrolle stoppen“ wurde ins Leben gerufen. Doch auch einige Politiker der Union – unter anderem Jens Spahn – sprachen sich dagegen aus.

Das war allerdings hinfällig, weil letztendlich das Bundesinnenministerium und das Bundesjustizministerium gemeinsam über eine Positionierung Deutschlands entschieden haben – und sich im letzten Moment gegen die Chatkontrolle ausgesprochen haben. Die Abstimmung des EU-Rates wird damit vermutlich vorerst nicht stattfinden, da die qualifizierte Mehrheit auf der Kippe steht.

Stimmen

  • Will Cathcart, Head of WhatsApp für Weiterentwicklung, warnt in einem Interview: „Der jüngste Vorschlag der EU-Präsidentschaft untergräbt weiterhin die Ende-zu-Ende-Verschlüsselung und gefährdet damit die Privatsphäre und Sicherheit aller.“
  • Die Entwickler des schweizerischen Messengers Threema, der für ein hohes Sicherheitsniveau bekannt ist, finden in einem Blog-Beitrag keine guten Worte für die Politik: „In einer gesunden Demokratie kontrollieren die Bürger die Regierung – Massenüberwachung ist die Umkehrung dieses demokratischen Grundsatzes. Mit so einer Maßnahme werden Bürger unter Generalverdacht gestellt, was das Vertrauen zur Regierung tiefgreifend stört.“
  • Schon im Jahr 2023 hat sich der Kinderschutzbund (DKSB) zur Chatkontrolle geäußert: „Vor allem das anlasslose Scannen privater Kommunikation in Messenger-Diensten (wie z.B. WhatsApp oder Signal) oder E-Mails ist weder verhältnismäßig noch zielführend. Dies greift tief in Grundrechte der Kinder und Jugendlichen ein, deren Aufwachsen in einem Umfeld, in dem freie Meinungsäußerung und vertrauliche Kommunikation selbstverständlich sind, ein wesentlicher Pfeiler von Demokratie und Partizipation ist.“

Chatkontrolle: Deutschland sagt „Nein“

Grundsätzlich ist es kein gutes Zeichen, dass sich die deutsche Politik über einen so langen Zeitraum bedeckt gehalten hat. Das bedeutet, dass sich die Stimmen in der Bundesregierung gemehrt haben, die ernsthaft über eine Chatkontrolle nachdenken. Das endgültige „Nein“ verliert ein Stück weit an Glaubwürdigkeit, weil erst ein öffentlicher Aufschrei nötig war.

Gerade in Deutschland, dem Land, in dem während des Nationalsozialismus und in der DDR Menschen systematisch überwacht und verfolgt worden sind, müsste ein Bewusstsein vorhanden sein, dass derartige Maßnahmen früher oder später ausgenutzt werden, um das eigene Volk zu drangsalieren.

Wer ernsthaft glaubt, dass eine potenzielle Aushöhlung der Privatsphäre aller Menschen in Deutschland und Europa dafür sorgt zu glauben, dass Kinder vor sexueller Gewalt und deren Verbreitung besser geschützt wären, ist nicht nur auf dem Holzweg, sondern rennt im Vollsprint auf eine Steinmauer zu.

Es ist essenziell, dass sich die EU dem Kinderschutz annimmt – nur die Art und Weise ist verkehrt. Mehr Personal in Jugendämtern, eine engere Betreuung durch mehr Fachpersonal in Schulen und Kindergärten, weniger „Wegschauen“ sowie ein Verbot von Pornoplattformen: All das wären effektivere und menschenorientierte Wege.

Auch interessant: 

Der Beitrag Chatkontrolle: Deutschland torpediert EU-Pläne erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Warum das Weiße Haus jetzt einen TikTok-Kanal hat

09. Oktober 2025 um 15:00

Der Beitrag Warum das Weiße Haus jetzt einen TikTok-Kanal hat erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

TikTok USA Kanal Weiße Haus White House

Während im August 2025 TikToks Zukunft in den USA noch ungewiss war, launchte das Weiße Haus den ersten TikTok-Kanal einer US-Regierung. US-Kolumnistin Marinela Potor erklärt, was dahinter steckt. 

Am 19. August 2025 postete das Weiße Haus ein Wahlkampfvideo von US-Präsident Donald Trump. Das Ungewöhnliche daran: Das Video war auf TikTok zu sehen, auf dem brandneuen Regierungskanal. Unter Trump wurde somit offiziell der erste TikTok-Kanal einer US-Regierung ins Leben gerufen.

All das erfolgte inmitten von Diskussionen um die Zukunft des sozialen Netzwerks in den USA. Seit Jahren steht ein US-Verbot von TikTok im Raum. Aktuell sieht es so aus, als ob die Video-Plattform an ein Konsortium von Investoren unter US-Kontrolle verkauft werden wird.

Da mutet es schon etwas seltsam an, dass die Trump-Regierung ausgerechnet jetzt auf TikTok aktiv wird.

Trump ist TikTok-Fan

Doch wer Trumps Social-Media-Kanäle schon eine Weile verfolgt, weiß, dass er die Plattform schon länger erfolgreich nutzt, um seine politische Agenda voranzutreiben. Sein persönlicher Kanal hat über 15 Millionen Follower und seine Videos erhalten regelmäßig Millionen Views.

@realdonaldtrump

@adin

♬ Star Spangled (Bass Boosted) – SNC

Er selbst hat schon zugegeben, dass TikTok einen „warmen Platz“ in seinem Herz hat, weil er angeblich in der Präsidentschaftswahl 2024 gegen Kamala Harris bei jungen Wähler:innen 34 Punkte Vorsprung hatte. Auch wenn das eine frei erfundene Behauptung ist (tatsächlich hat Harris besser als Trump bei jüngeren Bevölkerungsgruppen abgeschnitten), hat Trump angedeutet, dass dieser „Erfolg“ etwas mit seinem TikTok-Kanal zu tun haben könnte.

So scheint die US-Regierung davon überzeugt, dass sie mit TikTok neue Wählergruppen erreichen kann.

Weißes Haus: TikTok als neuer Kommunikationskanal

So sagte Trumps Pressesekretärin Karoline Claire Leavitt zum Launch: Das Weiße Haus wolle mit dem TikTok-Kanal nicht nur die „historischen Erfolge“ von Trump verbreiten, sondern auch „auf eine Art und Weise kommunizieren, wie noch keine Administration zuvor“.

Da mag durchaus etwas dran sein. So ist dies nicht nur die allererste TikTok-Präsenz einer US-Regierung. Auch die Inhalte sind… nun ja… gewöhnungsbedürftig für einen offiziellen Regierungsaccount. So tummelt sich hier eine wilde Mischung von Videos aller Art.

So gibt es etwa ein Video, das Trump bei einem Golfturnier zeigt. Ein anderes ist ein Zusammenschnitt von Amerikaner:innen, die seine Ansichten zu Impfungen und Autismus teilen. Es gibt ein Video, das den Empfang der türkischen Präsidenten Recep Tayyip Erdoğan teilt, genauso wie zahllose patriotisch anhauchende Videos mit Trump im Helikopter oder unter wehenden US-Flaggen. Auch Memes und Popkultur-Bezüge tummeln sich auf dem Kanal.

Und vor einigen Tagen ließ das Weiße Haus es sich auch nicht nehmen, ein Video mit dem Titel „TikTok ist gerettet“ zum TikTok-Deal zu posten.

@whitehouse

BREAKING: Trump just signed the deal that SAVES TIKTOK. WE ARE HERE TO STAY 🔥

♬ original sound – The White House

Große Bühne zu verlockend

Obwohl TikTok also einerseits von der Regierung als „Bedrohung für die nationale Sicherheit“ charakterisiert wird, scheint das beliebte soziale Netzwerk als politische Plattform für Trump sehr reizvoll zu sein.

Die USA sind mit derzeit mehr als 135.79 Nutzer:innen das Land mit den meisten TikTok-User:innen weltweit. Das ist vermutlich eine Bühne, auf der Trump unbedingt selbst erscheinen möchte.

Auch interessant:

Der Beitrag Warum das Weiße Haus jetzt einen TikTok-Kanal hat erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Direkte Übersetzungen in WhatsApp: Alles, was du wissen musst

25. September 2025 um 15:00

Der Beitrag Direkte Übersetzungen in WhatsApp: Alles, was du wissen musst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

WhatsApp direkte Übersetzungen Messenger Meta

WhatsApp will seine Nutzer weltweit noch enger zusammenbringen und führt dafür direkte Übersetzungen ein. Das Feature beinhaltet auf Android und iPhone bereits zahlreiche Sprachen, soll künftig aber noch weiter ausgebaut werden.

WhatsApp hat sich in den vergangenen Jahren zu einem der wichtigsten globalen Kommunikationsmittel entwickelt. Weltweit verbindet der Messenger aus dem Hause Meta Nutzer ortsunabhängig und kostenfrei direkt miteinander.

Durch die weite Verbreitung hat WhatsApp auch die klassische SMS weitestgehend ersetzt und trägt wesentlich zur internationalen Vernetzung bei. Nach Angaben des Unternehmens nutzen inzwischen mehr als drei Milliarden Menschen den Dienst in mehr als 180 Ländern.

Diese Nutzer will WhatsApp nun weltweit noch enger zusammenbringen und die Kommunikation „noch einfacher“ gestalten. Dafür führt die Meta-Tochter direkte Übersetzungen in WhatsApp ein. Diese finden laut dem Unternehmen direkt auf dem Smartphone statt, wodurch der Schutz der Privatsphäre in deinen Chats gewahrt wird.

So funktionieren Übersetzungen in WhatsApp

Bei Instagram und Facebook sind sie bereits fest integriert, nun folgen direkte Übersetzungen auch in der Schwester-App WhatsApp. Künftig kannst du Texte direkt in deinen Chats übersetzen lassen und musst nicht mehr umständlich auf andere Apps zurückgreifen.

WhatsApp will seinen Nutzern damit ermöglichen, „noch einfacher über Sprachgrenzen hinweg“ kommunizieren zu können. „Aber wir wissen, dass die Sprache manchmal eine Barriere darstellen kann, wenn es darum geht, etwas zu erledigen oder seine wahren Gefühle auszudrücken“, heißt es von der Meta-Tochter.

Wie viele weitere Optionen für deine Nachrichten bei WhatsApp, findest du auch die die Übersetzungsfunktion direkt in deinem Chat. Halte hierfür die jeweilige Nachricht lange gedrückt und wähle nun „Übersetzen“ aus.

Hier kannst du nun die Sprache auswählen, in der die ursprüngliche Nachricht verfasst worden ist. Diese Sprache musst du einmal herunterladen und kannst sie dann für künftige Übersetzungen speichern.

Wurde eine Nachricht von WhatsApp übersetzt, erscheint am unteren Rand der Nachricht ein kleiner Hinweis dazu – ähnlich wie bei bearbeiteten Nachrichten. Die Übersetzung ist in allen Einzel- und Gruppenchats möglich und auch bei Kanalmeldungen.

Unterschiede zwischen Android und iPhone

Nutzt du ein Android-Smartphone kannst du auch die automatische Übersetzung für einen kompletten Chat aktivieren. Dann werden alle zukünftigen eingehenden Nachrichten in diesem Chat übersetzt.

Zu Beginn sind direkte Übersetzungen bei WhatsApp nur „in einigen ausgewählten Sprachen“ möglich. Der US-Konzern will allerdings „in Kürze“ weitere Sprachen hinzufügen.

Für Android-Nutzer sind aktuell folgende sechs Sprachen verfügbar: Englisch, Spanisch, Hindi, Portugiesisch, Russisch und Arabisch. Für iPhone-Nutzer stehen mehr als 19 Sprachen zur Verfügung, darunter Englisch, Italienisch, Polnisch, Französisch und Portugiesisch.

Auch interessant:

Der Beitrag Direkte Übersetzungen in WhatsApp: Alles, was du wissen musst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Sexualisierung, Stereotyope und Konsum: KI-Influencer verrohen die Gesellschaft

25. September 2025 um 05:45

Der Beitrag Sexualisierung, Stereotyope und Konsum: KI-Influencer verrohen die Gesellschaft erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Influencer Sex Konsum Stereotype

Virtuelle KI-Influencer mit perfektem Körper und programmierter Verfügbarkeit erobern die sozialen Medien – und verkaufen dabei nicht nur Produkte, sondern auch ein fragwürdiges Frauenbild. Kritiker warnen vor dem Hype um KI-generierte Sexsymbole, denn dieser könnte Konsum, Körperkult und Misogynie auf ein neues Level heben.

KI-Influencer sind auch hierzulande keine Seltenheit mehr. Doch ihre Akzeptanz in der Gesellschaft schwankt stark zwischen den einzelnen Generationen.

Laut einer Umfrage aus dem Jahr 2025 sehen 27 Prozent der Millennials es als wahrscheinlich an, dass sie Inhalte von einem KI-generierten Influencer lesen, ansehen oder damit interagieren. Bei den Baby Boomern sind elf Prozent, die Gen Z kommt auf 19 Prozent – also fast ein Fünftel.

Doch bei dem Einsatz von KI-Influencern handelt es sich um einen gefährlichen Trend mit zahlreichen Risiken. Dennoch tauchen auf Instagram und Co. immer mehr dieser vermeintlich perfekten Wesen auf, die zahlreiche Follower hinter sich vereinen.

Werden KI-Influencer zum Risiko im Netz?

Durch ihre perfekte digitale Gestaltung wirken sie täuschend echt und dabei doch unerreichbarer. KI-Influencer bedienen oft stereotype Schönheits- und Geschlechterbilder und bieten unrealistische Ideale.

Das birgt ein hohes Potenzial für Manipulation, wenn beispielsweise Produkte oder politische Botschaften ohne klare Kennzeichnung beworben werden. Gleichzeitig verstärken KI-Influencer ein unerreichbares Ideal. Mit Makelloser Haut, perfekten Körpern und stets guter Laune können sie vor allem für junge Menschen besonders gefährlich werden und ein verzerrtes Selbstbild befördern.

Gleichzeitig steht hinter diesen virtuellen Persönlichkeiten inzwischen eine hochprofessionelle Industrie. KI-Influencer werden strategisch entwickelt, um Reichweite und Umsätze zu maximieren. Mit ihrer Präsenz rund um die Uhr generieren sie Millionenumsätze und werden so zum perfekten Verkaufsinstrument.

So beispielsweise auch die KI-Influencerin Emily Pellegrini auf Instagram. Die 23-Jährige ist laut ihrer Bio ein „fun loving girlie“ und lebt in LA. Doch echt ist an ihr nichts. Denn ihrer Beschreibung ist auch der Hinweis „AI Influencer“ zu entnehmen.

Insgesamt vereint die KI-generierte Influencerin 367.000 Follower auf Instagram und sorgt für ihren Creator damit für einen Millionenumsatz. Denn Nutzer können auf einer separaten Plattform mit Emily Pellegrini chatten und hier sich sexuelle und personalisierte Inhalte generieren lassen.

Warum sind KI-Influencer so beliebt?

Der Macher hinter der KI-Influencerin, der sich selbst Professor EP nennt, beschäftigt damit heute rund 25 Menschen, wie ZDFheute berichtet. Der Content werde dabei inzwischen komplett automatisch generiert.

Viele Männer fühlen sich im Alltag übersehen oder emotional isoliert. Mit einer KI-Influencerin können sie Nähe simulieren – ohne Angst vor Ablehnung, ohne Realität.

Zwischen März 2023 bis Mai 2025 habe das Team nur mit dem Account von Emily Pellegrini 2,5 Millionen US-Dollar Umsatz eingefahren. Das liege vor allem an den sogenannten „High Spendern“, die laut Prof. EP täglich mehrere Stunden mit der KI-Influencerin chatten und über Monate hinweg emotionale Beziehungen aufbauen.

KI-Influencer können Emotionen und menschliches Verhalten perfekt inszenieren. Dabei sind sie makellos und jederzeit verfügbar – ohne Skandale oder unberechenbares Verhalten.

Eine Abgrenzung fällt dem Menschen hier besonders schwer, da die Grenzen zwischen Realität und Fiktion verschwimmen. Gleichzeitig ist das menschliche Gehirn so ausgelegt, dass es beispielsweise Sprache als menschlich erkennt, wie Medienpsychologin Jessica Szczuka gegenüber ZDFheute erklärt.

Die Interaktion mit dem KI-Influencer sei in jenem Moment „so stark sozial, dass der Mensch sich da schwer von abgrenzen kann“. Hierin liege auch der Reiz dieser sozialen Erfahrung.

Gleichzeitig vermitteln KI-Influencer durch ihre vermeintliche Echtheit unrealistische Körperbilder. Bisher sei laut Szczuka „schwer abzusehen“, wie sich das im Hinblick auf Erwartungen an Körper entwickelt. Aus diesem Grund sei die Kennzeichnungen von KI-Inhalten besonders wichtig.

Auch interessant:

Der Beitrag Sexualisierung, Stereotyope und Konsum: KI-Influencer verrohen die Gesellschaft erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Spotify Free Upgrade: ReVanced plant Rückkehr zu GitHub

18. September 2025 um 16:59

Das Spotify Free Upgrade soll den Musikstreaming-Dienst aufwerten. Das Entwickler-Team ReVanced prüft, ob man eine Klage einlegen wird.

Der Artikel Spotify Free Upgrade: ReVanced plant Rückkehr zu GitHub erschien zuerst auf TARNKAPPE.INFO

AdGuard Premium für Android gecrackt

17. September 2025 um 17:58

Beim Telegram-Kanal Getmodpc taucht für Android so manches auf. Nicht alle Cracks funktionieren, doch AdGuard Premium schon.

Der Artikel AdGuard Premium für Android gecrackt erschien zuerst auf TARNKAPPE.INFO

❌