YouTube in der Linux-Welt: Content-Farm, “I Tried Both” und inhaltsloser KI-Dreck

Linux liegt (endlich mal wieder!) aktuell im Trend und dank Valve, dem Steam Deck und natürlich dem Arch-basierten SteamOS, steigen die Marktanteile im von Windows dominierten Bereich mittlerweile deutlich an. Das lockt aber nun auch schon seit längerer Zeit YouTube-Kanäle an, die nicht viel Gutes im Schilde führen. Sogenannte “Content-Farms” spriessen wie Pilze aus dem Boden und dank neuer Möglichkeiten wie durch künstlicher Intelligenz überfluten diese den Algorithmus mit dem untersten Bodensatz an Inhalten. Ich habe mir das einmal genauer angeschaut. Aber es betrifft nicht nur Linux, diese Content-Farms haben alle Bereiche im Auge.
Inhaltsverzeichnis
40 Videos in unter einer Stunde – “I tried both”, “Which is better?” oder “Scam or Legit?”
Wer auf Linux wechseln will, erkundigt sich im Netz. Besonders Fragen wie “welche Distribution soll ich nehmen” oder “was ist besonders gut für Gaming” beschäftigen viele Menschen, die wechseln wollen. YouTube ist da eine gute Anlaufstelle, vor allem gibt es einige richtig gute Kanäle, die sich mit unterschiedlichen Distros beschäftigen und euch bis ins Detail viele verschiedene Aspekte erklären. Vor allem auch echte Vergleiche ziehen. Es gibt aber auch andere, sogenannte Content-Farmen, die gefühlt im Sekundentakt mit den immer gleichen Thumbnails und nur mit ausgetauschten Logos Videos in Massen veröffentlichen. Die Videos sind teilweise nicht einmal drei Minuten lang und völlig inhaltslos. Das hat aber auch seinen Grund.
- Auch interessant zu Linux: Bazzite auf dem Steam Deck (OLED) – Unterschiede im Vergleich
Die Videos zählen nur die bereits auf den Webseiten oder vielleicht durch KI aufgezählte Informationen auf. Die Stimme wirkt oft unnatürlich, statisch, wenig emotional und nicht erzählerisch. Auch die Thumbnails sind immer gleich, es ist immer das gleiche Gesicht pro Kanal (können auch mal vereinzelt mehrere sein), manchmal nur in unterschiedlichen Haltungen oder anderen Farben. Die Content-Farmen arbeiten dabei immer gleich: Die Themenauswahl ist komplett durcheinander (Tests zu Software, Parfüm, Nahrungsergänzungsmittel. Hardware, Tutorials und mehr), die Videos häufig keine drei Minuten lang und der Content wird oft in Phasen hochgeladen. Das heisst bis zu 40 Videos hintereinander (oder mehr) erscheinen nahezu gleichzeitig und danach ist erst einmal wieder für ein bis zwei Tage Pause.
Die auf den Thumbnails zu sehenden Menschen sind entweder geklaute Profilbilder oder – was mittlerweile deutlich einfacher ist – per KI erstellt, meist genau wie die Videos selbst auch. Die Menschen existieren nicht, zumindest nicht die gezeigten auf den Thumbnails. Wie viele echte Personen allerdings hinter diesen Kanälen auf YouTube stecken, ist nicht klar. Es können einzelne Personen oder, wie es häufig der Fall ist, ganze Gruppen sein, die darauf aus sind, die so in Massen generierten Klicks irgendwie zu monetarisieren.
Screenshots: PocketPC.ch / Laser
Content Farms verwässern Inhalte und lassen KIs weiter verblöden (uns auch)
Einen genauen Hotspot kann man meist aber nicht ausmachen. Sie dienen allerdings dazu, die gesammelten Klicks irgendwann einmal zu monetarisieren. Denn sobald ein Kanal eine bestimmte Abo-Grösse erreicht, lässt sich dort in den Einstellungen die Monetarisierung einleiten. Bei den hunderten von Videos, die so eine Content-Farm pro Woche raushaut, muss ja nur eines dabei sein, das den Algorithmus trifft und so schlussendlich ein paar tausend Kilcks dabei herauskommen. Auch wenn das insgesamt nicht viel ist, der durch KI mittlerweile gegen 0 gehende Aufwand scheint sich ohne Probleme zu lohnen. Das lässt sich übrigens auch sehr einfach automatisieren.
Da aber Large Language Models (LLMs) wie ChatGPT, Gemini und Co. auf Inhalte im Netz angewiesen sind und auch in der Lage sind Infos aus YouTube-Videos wie Transskripten und anderen Methoden zu ziehen, wird hier natürlich eine Menge digitaler Inzest betrieben. KI-erstellte Inhalte landen so wieder in KI und werden auch zur Informationsweitergabe verwendet. Eine Testfrage von mir in Perplexity führte dazu, dass ein durchaus recht stark geklicktes 3-Minuten-Video einer solchen Content-Farm als Quelle genommen wurde. Das Video selbst ist aber völlig inhaltslos und liest im Endeffekt nur die Infos der Webseiten vor. Keine eigenen Erfahrungen, kein echter Test, kein echter Vergleich. Ihr bleibt also genauso schlau wie vorher.
Verhindern lässt sich das kaum, vor allem dann, wenn die Videos teilweise recht gut geklickt werden. Gemini, als Googles Search-KI, ist von dem Problem besonders hart betroffen, da diese vor allem stark auf die eigenen Plattformen setzt, die Google bereitstellt. Das wären eben auch unter anderem YouTube, wo diese KI-generierten Content-Farmen explodieren. Das hat zur Folge, dass KI weiter verblödet. Schon jetzt ist ChatGPT 5 weitaus Fehleranfälliger als noch Version 4 es war. Die KI halluziniert mehr, obwohl sie es weniger sollte und zieht mehr Falschinformationen aus dem Netz.

Was gegen KI-Content-Farms machen? Am besten melden und blockieren
Dass diese Content-Farms in euren Feeds auftauchen, ist mittlerweile sehr wahrscheinlich. Da sie Videos zu einfach allen Themen veröffentlichen, können sie auch in den meisten Themengebieten bei euch im Algorithmus plötzlich auftauchen. Vor allem dann, wenn ihr nach Sachen sucht oder gar Vergleiche ins Auge fasst. Aber was kann man gegen diese Content-Farms unternehmen? Nicht viel, zumindest wird sich YouTube nicht allzu schnell um das Problem kümmern, auch wenn in der Vergangenheit bereits der ein oder andere Kanal geschlossen wurde, doch da ging es eher um andere Inhalte.
Ihr könnt den Kanal melden und in der anschliessenden Begründung die Worte “Content-Farm” verwenden und auf die nicht gekennzeichneten KI-Inhalte aufmerksam machen, sofern KI verwendet wurde (was aber in den meisten Fällen durchaus so ist). Ob es schlussendlich was bringt, bleibt aber abzuwarten. Aber im schlimmsten Fall verdient Google mit an der geschalteten Werbung und meist ist das Interesse recht gering, diese AI-Slop-Kanäle zu beerdigen. Denn gerade diese Vergleichs- oder Review-Channel, überwiegend hier mit “Guide” oder “Tutorial” im Namen, machen jetzt rechtlich erstmal nichts falsch bzw. liegen in einer Grauzone mit ihrem KI-Quatsch.
Ansonsten lassen sich Kanäle noch “blockieren”. Entweder über diverse Browser-Plugins oder ihr klickt, sofern ihr diese Videos in eure Timeline gespült bekommen solltet, auf die drei Punkte neben dem Titel und dann auf “keine Videos von diesem Kanal empfehlen”.

Ein paar Beispiel-Links zu YouTube-Content-Farms
Da ich an dieser Stelle nicht unbedingt möchte, dass die Videos noch mehr Reichweite und Klicks erhalten, habe ich euch einmal hier ein paar der Kanäle direkt verlinkt. Das sind zumindest schon einmal ein paar, die ich bei meiner Recherche gefunden habe. Dort könnt ihr durch die Listen der Videos scrollen und auch das Muster genau anschauen. Wie ihr seht ist es überall gleich. Dann ist es einfacher, in Zukunft solche Content-Farmen zu identifizieren und zu meiden.
Update vom 28. September (Liste aktualisiert)
- Savage Reviews
- I’m here to help you!
- Free Stuff Tutorials <- mittlerweile gelöscht
- Digibase Media <- daraus wurde dieser Kanal hier
- Tobi Teaches
- MatteoGuide
- Rapid Guides
- EnricoGuide
- Checkmark Academy (eEnrico)
- BaconHowTo
- DIY GUIDES
- Solution Base
- Drex Solan
- Vyro Tutorials
- Internet Solutions
- SkillScope <- mittlerweile gelöscht
- Premium Reviews <- daraus wurde dieser Kanal hier
- Johnny West <- mittlerweile gelöscht
- Tutorial Guru
- PaperClick
- Scam Sniff
- HowToLiterally
- Crypto Overlord
- Cassian Versio
- How To Thomas
- Quick Guidez
- HMD Tech
- Benefit Bureau
- Astro Fixes Problems
- EasyTutoFlow
- Quick and Easy
- Pro Guides
- Xguide
- HowToHarbor
Alle diese Kanäle sind kompletter Scam und sind nur ein Bruchteil von dem, was unter der Haube der Content-Farms so lungert. Sie versuchen mit reiner Masse die Suchergebnisse zu überfluten, um das eine Video zu finden, das plötzlich Geld abwirft. Manchmal funktioniert das, aber halt eben auch nicht immer.

Fazit: Verhindern lässt sich das alles nach aktuellem Stand nicht
Grundsätzlich muss man aber an dieser Stelle sagen: verhindern lassen sich diese KI-Content-Farms erst einmal nicht. Und es beschränkt sich bei Weitem nicht nur auf Linux. Auch Handys, Gaming, Politik oder”Just Talking” ist davon nicht ausgenommen. Weiter macht zumindest Google in Form von YouTube nur wenig dagegen, es sei denn, es geht gegen einzelne Kanäle, die ein gewisses Interesse bedienen und manchmal auch mediale Aufmerksamkeit erhalten. Das ist hier aber definitiv nicht der Fall, diese Channels sind nahezu “unsichtbar”. Viele Videos werden gerade einmal im ein- oder zweistelligen Bereich aufgerufen.
Bevor ihr aber zu voreilig auf das nächste “I tried both!”-Video klickt, nehmt euch einfach ein paar Sekunden Zeit euch den Kanal anzuschauen. Die Hinweise sind ja eindeutig und häufig schon im Thumbnail zu sehen. Schaut man sich dann den Kanal an und sieht eine enorme Menge an Videos, die zwischen ein bis drei Minuten gehen, handelt es sich mit extrem hoher Wahrscheinlichkeit um eine Content-Farm und ihr werdet nach dem Schauen nicht schlauer sein. Dann lieber den Kanal melden und blocken.
Sucht euch aber auch vor allem YouTube Creators, bei denen ihr wisst, dass es sich nicht um Content-Farms handelt, sondern ein tatsächlich echter Mensch hinter steht. Diese dann zu abonnieren und aktiv zu verfolgen, bringt euch schlussendlich mehr. Gerade dann, wenn ihr euch für gewisse Themenbereiche wie Linux und Co. interessiert, hilft es hier vor allem auf echte Erfahrungen statt AI-Slop-Zusammenschnitte zu setzen.
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.