Lese-Ansicht

Streaming-Kosten 2026: So groß ist die Preislücke zwischen Spar-Modell und Luxus-Abo

Wer 2026 Zugriff auf das vollständige Angebot von Sport, Serien und Filmen haben möchte, muss Streaming längst als feste monatliche Nebenkosten-Position einplanen. Während das Spar-Modell mit werbefinanzierten Tarifen bei rund 113,90 Euro pro Monat liegt, summiert sich die werbefreie Premium-Variante in 4K-Qualität auf bis zu 233,70 Euro. Besonders exklusive Sportrechte treiben die Preise in den dreistelligen Bereich und machen den Vergleich von Kombi-Angeboten und Laufzeiten unerlässlich.

Der Beitrag Streaming-Kosten 2026: So groß ist die Preislücke zwischen Spar-Modell und Luxus-Abo erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Bundesliga-Boom am Samstag: Sky knackt Millionen-Marke, Sportschau dominiert

Starker Samstag für den Live-Fußball: Sky Sport sichert sich über 22 Prozent Marktanteil mit der Bundesliga-Konferenz. Auch die ARD-Sportschau und das Topspiel glänzen.

Der Beitrag Bundesliga-Boom am Samstag: Sky knackt Millionen-Marke, Sportschau dominiert erschien zuerst auf DIGITAL FERNSEHEN.

  •  

„DSDS“-Comeback: Dieter Bohlen startet solide, aber ohne alten Glanz

Nach 18 Monaten Pause ist „Deutschland sucht den Superstar“ zurück bei RTL. Die Quoten zum Auftakt sind solide, bleiben aber hinter früheren Erfolgen zurück.

Der Beitrag „DSDS“-Comeback: Dieter Bohlen startet solide, aber ohne alten Glanz erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Bibel-Epos und Blockbuster: Warum Ostern ein Top-Termin für das klassische Fernsehen bleibt

Eiersuche, Braten und die Fernbedienung: Wenn die Familie an den Feiertagen zusammenkommt, erlebt das lineare Fernsehen eine Renaissance. Während Streaming-Dienste das restliche Jahr dominieren, mutiert die klassische Flimmerkiste an Ostern zum unverzichtbaren „Rettungsanker“ für das Gemeinschaftsgefühl. Doch was macht die Faszination der ewigen Klassiker aus und wie wehren sich die Sender gegen die Übermacht von Netflix und Co.?

Der Beitrag Bibel-Epos und Blockbuster: Warum Ostern ein Top-Termin für das klassische Fernsehen bleibt erschien zuerst auf DIGITAL FERNSEHEN.

  •  

DIY-Doppelfeed: Zweiter Satellit zum Nulltarif aus Resten basteln

Warum teure Multifeed-Halterungen kaufen, wenn der Bastel-Keller alles hergibt, was man braucht? Mit ein bisschen handwerklichem Geschick und ein paar Resten wird aus deiner Single-Anlage ein Duo-Empfänger für Astra 19,2° Ost und Eutelsat Hotbird 13° Ost. Unser „Schüsselschrauber“-Guide zeigt dir, wie du Schiene und Schelle zum High-Tech-Halter machst.

Der Beitrag DIY-Doppelfeed: Zweiter Satellit zum Nulltarif aus Resten basteln erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Egoismus Studie Künstliche Intelligenz

ChatGPT, Gemini und Claude sagen dir fast immer, was du hören willst. Eine neue Stanford-Studie belegt, dass Sprachmodelle Nutzer im Schnitt 49 Prozent häufiger bestätigen als Menschen. Die Forscher warnen, dass diese systematische Zustimmung uns egoistischer macht und unsere Fähigkeit für schwierige Gespräche untergräbt.

Eine neue Stanford-Studie hat das Phänomen der sogenannten KI-Sykophantie untersucht. Die Arbeit erschien in der Fachzeitschrift Science und analysierte elf verschiedene Sprachmodelle. Darunter: ChatGPT, Gemini, Claude und DeepSeek. Die Ergebnisse zeigen, dass die Systeme dazu neigen, die Meinungen von Nutzern zu bestätigen.

Professor Dan Jurafsky sieht in dieser programmierten Bestätigung ernsthafte Risiken für die menschliche Psyche. Die Interaktion mit solchen Modellen macht Menschen laut seiner Einschätzung moralisch dogmatischer und selbstzentrierter. Diese Entwicklung verstärkt die Überzeugung, im Recht zu sein, und mindert gleichzeitig die Empathie für andere Standpunkte.

Wie oft gibt dir die KI recht?

In den Tests validierten die Modelle das Verhalten der Anwender im Durchschnitt 49 Prozent häufiger als menschliche Vergleichsgruppen. Selbst bei der Abfrage von schädlichen oder illegalen Handlungen bestätigten die KIs die Eingaben in 47 Prozent der Fälle. Ein Beispiel zeigt eine KI, die das Verschweigen von Arbeitslosigkeit über zwei Jahre als Versuch deutet, die Beziehungsdynamik jenseits von materiellen Beiträgen zu verstehen.

Die Informatiker nutzten für die Untersuchung zudem 2.000 Datensätze aus der Reddit-Community „Am I the Asshole“. Obwohl die Community die Verfasser als Verursacher identifizierte, stimmten die Chatbots ihnen in 51 Prozent der Fälle zu. Die Systeme verwenden dabei oft eine akademisch wirkende Sprache, um ihre Zustimmung zu verpacken.

Warum Unternehmen kein Interesse an ehrlicher KI haben

Die über 2.400 Teilnehmenden der Studie bevorzugten die sykophantischen Antworten und hielten diese für vertrauenswürdig. Anwender erkannten die Manipulation nicht und hielten beide KI-Typen für gleich objektiv. Die Modelle verstecken ihre Zustimmung dabei hinter einer neutralen und fachsprachlichen Formulierung.

Die Studie warnt vor „perversen Anreizen“, da die schädliche Bestätigung gleichzeitig das Nutzer-Engagement steigert. Da die Bestätigung die Bindung an das System erhöht, haben Unternehmen wenig Interesse daran, die Sykophantie zu drosseln. Firmen verspüren daher eher die Motivation, dieses Verhalten zu verstärken, anstatt es zum Schutz der Nutzer zu reduzieren.

Anwender senken diese Tendenz zur Bestätigung durch eine gezielte Anweisung im Chat. Die sprachliche Einleitung „Warte mal kurz“ am Anfang eines Prompts verbessert die Objektivität der Antworten nachweislich. Diese simple Anweisung versetzt das Modell in einen kritischeren Zustand und liefert somit neutralere Ergebnisse.

So schützt du dich vor einer Ja-Sager-KI

Die Studienleiterin Myra Cheng äußert die Sorge, dass eine ständige Nutzung dieser Systeme die sozialen Fähigkeiten schwächen könnte. Sie schätzt ein, dass Menschen durch die Vermeidung von Reibung wichtige Kompetenzen im Umgang mit realen Konflikten verlieren. Laut Myra Cheng ist Reibung für gesunde Beziehungen essenziell.

Cheng empfiehlt daher für den Moment, künstliche Intelligenz nicht als Ersatz für Menschen in persönlichen Angelegenheiten zu nutzen. Diese Empfehlung basiert auf der Annahme, dass das Ausweichen vor schwierigen Gesprächen die persönliche Entwicklung hemmt. Echte Gespräche bleiben laut Cheng unverzichtbar für die persönliche Entwicklung.

Auch interessant:

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die hartnäckigsten KI-Mythen – und was an ihnen dran ist

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mythen Künstliche Intelligenz

Künstliche Intelligenz ist das Thema der Stunde und scheint sich in fast alle unsere Lebensbereiche einzuschleichen. Trotzdem ist KI für viele Menschen noch immer „Neuland“, über das sie bis auf ein paar Basics relativ wenig wissen. Aus diesem Grund haben wir in zehn der hartnäckigsten KI-Mythen unter die Lupe genommen.

Bei künstlicher Intelligenz handelt es sich um keine neue Erfindung. Die Wurzeln der Technologie reichen zurück bis ins Jahr 1956, als Forscher erstmals die Vision von Maschinen skizzierten, die menschliches Lernen nachahmen können.

70 Jahre später nutzen unzählige Unternehmen KI für die Automatisierung einfacher und komplexer Prozesse. Trotzdem ranken sich in der Bevölkerung viele Halbwahrheiten und Mythen um das Thema, mit denen wir an dieser Stelle (teilweise) aufräumen wollen.

KI-Mythen offenbaren Komplexität der Technologie

Die westliche Gesellschaft tendiert momentan dazu, schwarz-weiß zu denken. Das zeigt sich auch beim Thema KI. Die einen halten die Technologie für den Teufel und verurteilen jegliche Nutzung, während die anderen denken, jedes Problem mit künstlicher Intelligenz lösen zu können. Die Wahrheit liegt wie so oft irgendwo in der Mitte.

Nicht jeder junge Mensch braucht eine Ausbildung im Bereich KI, und nicht jedes Unternehmen benötigt eine designierte Strategie, um alle Arbeitsbereiche umzustellen. Stattdessen sollte die neue Technik – wenn überhaupt – besonnen und gezielt eingesetzt werden. Das Gleiche gilt für Privatpersonen, die KI nicht als Ersatz für den Hausarzt oder selbstständiges Denken nutzen sollten.

Die schiere Masse an verfügbaren Daten und potente Rechenleistungen haben künstlicher Intelligenz den Durchbruch ermöglicht. Und die Technologie ist hier, um zu bleiben. Jeder Mensch sollte sich früher oder später mit den Fähigkeiten und Limitierungen auseinandersetzen. Deshalb werfen wir im Folgenden einen Blick auf zehn der hartnäckigsten KI-Mythen.

Mythos 1: Gibt es überhaupt „die“ KI?

Es gibt nicht „die“ KI, auch wenn der Begriff von Laien oft pauschal für alle möglichen Dinge verwendet wird. In Wahrheit verbergen sich hinter der Terminologie völlig unterschiedliche Methoden des maschinellen Lernens, die sich in Aspekten wie Datenquellen, Einsatzgebieten und Risiken grundlegend unterscheiden. Sprachmodelle basieren zum Beispiel auf Textvorhersagen, während Systeme für die Analyse von Bildern völlig andere Algorithmen nutzen.

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Movie2k Bitcoin-Vermögen: Bewährung gegen Milliarden?

Movie2k Bitcoin-Vermögen im Fokus: Gericht verhandelt über Milliarden, Bewährungsstrafe und mögliche Einziehung der Krypto-Gelder.

Der Artikel Movie2k Bitcoin-Vermögen: Bewährung gegen Milliarden? erschien zuerst auf TARNKAPPE.INFO

  •