#algorithmen

20 posts loaded — scroll for more

Text
loewentext-seo
loewentext-seo

KI-Flut vs. Qualität: Wer gewinnt den Kampf um Aufmerksamkeit?

Es ist die Gretchenfrage unseres digitalen Zeitalters: Werden hochwertige, menschliche Texte von der Flut an KI-generiertem Content einfach weggespült? Wenn jeder per Knopfdruck Texte erstellen kann, droht das Internet in mittelmäßigen Inhalten zu ertrinken. – Doch ob Qualität wirklich verdrängt wird, ist ein Kampf zwischen 2 mächtigen Kräften.


Die Gefahr:



Das Rauschen wird lauter

Zuerst die schlechte Nachricht: KI-generierter Content ist billig, schnell und für Suchmaschinen technisch optimiert (vgl. KI SEO-Texte) – Das schafft 2 Probleme:

Verdrängung durch Masse

Heute veröffentlichen 10.000 KI-Bots jeden Tag einen optimierten Artikel zum Thema „Was ist SEO?“. Für einen einzelnen menschlichen Experten wird es verdammt schwer, da noch auf Seite 1 bei Google zu landen.

Das schiere Volumen erzeugt ein ohrenbetäubendes Rauschen, in dem es schwer wird, noch einen Fixpunkt zu finden.

Erschöpfung der Aufmerksamkeits-Ökonomie

Unsere Aufmerksamkeitsspanne ist kürzer als die eines Goldfischs auf Espresso.

Viele Menschen geben sich mit der schnellen, oberflächlichen KI-Zusammenfassung zufrieden, anstatt einen tiefgründigen, 15-minütigen Essay zu lesen, der sie wirklich weiterbringt.


Die Chance:

„Human Premium“-Effekt

Aber genau hier gibt es auch einen kritischen Punkt: Denn je lauter das Rauschen wird, desto wertvoller ist das klare Signal.

Experten nennen das „Signal-zu-Rauschen-Verhältnis“ (überaus originell, nicht wahr?)


Vertrauen & E-E-A-T

Google ist nicht dumm und passt seine Algorithmen clever an, um Experience (Erfahrung), Expertise (Fachwissen), Authoritativeness (Autorität) und Trust (Vertrauen) zu belohnen.

Eine KI kann Fakten herunterbeten, aber sie hat keine echte Erfahrung. Sie hat nie ein wichtiges Projekt versemmelt, hat nie aus einem Fehler gelernt, ist nie auf einer Party abgestürzt uvm.

Darum werden Texte mit einer klaren menschlichen Handschrift zu Ankern in der Informationsflut.

Resonanz ist gefragt

Wenn alles um uns herum künstlich und glattgebügelt wirkt, suchen wir instinktiv nach Echtheit. Ein Text, der dich wirklich berührt, zum Lachen bringt oder zum Umdenken anregt, schafft eine tiefere Bindung als jeder noch so perfekte KI-Ratgeber.



Exkurs in die Philosophie:

Die Sehnsucht nach Resonanz

Die Phänomenologie hat ein zentrales Motto: „Zu den Sachen selbst!“ Das bedeutet: Wirf alle vorgefertigten Theorien und Modelle über Bord und schau dir das Phänomen, die Erfahrung selbst, ganz genau an. Wie erlebt sich Resonanz, bevor wir sie in ein Schema pressen?

Aus dieser Perspektive ist Resonanz kein „Austausch“ zwischen zwei getrennten Dingen (Subjekt und Welt oder Mensch und Text), sondern das plötzliche, intensive Aufleuchten unserer fundamentalen Verbundenheit mit der Welt oder einem Gegenüber oder einem Text.

Vgl. Semantische Suchmaschinenoptimierung


Und was hat das jetzt mit KI und Content zu tun?

Übertragen auf die Welt des Internets und der Texte bedeutet das:

Das Signal ist der Qualitätscontent, der die Sehnsucht nach Resonanz erfüllt. Ein Artikel, der dir eine neue Perspektive gibt, ein echtes Problem löst oder eine persönliche Erfahrung teilt, die dich berührt. Das ist Content mit echtem Mehrwert.

Und das ist der Grund, warum du überhaupt online nach etwas suchst.

Das Rauschen ist der ganze Rest. Die Schwemme an blutleeren KI-Texten, die nur Keywords aneinanderreihen; Clickbait-Überschriften, die nicht halten, was sie versprechen; wiedergekäute Informationen ohne jede neue Erkenntnis; oberflächliches Bla-Bla.


Qualität als Leuchtturm

Die Gefahr der aktuellen KI-Flut ist also, dass das Rauschen dramatisch zunimmt. Wenn Tausende Bots das Internet mit generischen Texten fluten, wird es für dich als Leser immer schwieriger, das wertvolle Signal – den einen wirklich hilfreichen Artikel – zu finden.

Mein Ziel als jemand, der hochwertige Internettexte erstellt, ist es daher, immer das klare, unüberhörbare Signal zu sein.

Lies auch » Das Ende der Content-Fabrik: Warum dein Blog 2026 keine Kunden bringt


Die Pyramide des Contents:

Warum Qualität überlebt



Die Basis (Masse): Hier tummelt sich austauschbarer KI-Content. Er wird das Grundrauschen bilden – Wetterberichte, einfache Produkterklärungen, Standard-Ratgeber. Der Kampf um Aufmerksamkeit ist hier brutal und kaum zu gewinnen.

Die Spitze (Wert): Hier oben ist die Luft dünner, aber die Aussicht besser. Hier findest du einzigartige Perspektiven, tiefgreifende Analysen und vor allem: Persönlichkeit.

Dieser Bereich ist KI-resistent, weil er nicht auf Wahrscheinlichkeiten basiert, sondern auf Originalität und menschlicher Kreativität.

Vgl. SEO & KI – SEO ist nicht tot, aber anspruchsvoller


Mein Fazit: Das Sterben des Mittelmaßes

Ich glaube nicht, dass die KI hochwertige Texte verdrängen wird.

Sie wird etwas viel Besseres tun: Sie wird das Mittelmaß fressen. Wer glaubt, er könne einfach auf einen Knopf drücken und qualitativ minderwertigen Content in die Welt blasen, wird im Rauschen untergehen.



Wer die KI aber clever als Werkzeug nutzt, um das Handwerkliche zu beschleunigen – also Gliederungen oder erste Entwürfe –, und die gewonnene Zeit in echte Tiefe, persönliche Erfahrungen und eine originelle Stimme investiert, wird wertvoller sein als je zuvor.

Text
oculiauris
oculiauris

🔍 Warum ihr manche Inhalte nicht mehr seht – und wie wir trotzdem sichtbar bleiben!


Seit Wochen beobachte ich und andere Aktivist:innen, dass wichtige Stimmen und Inhalte auf Instagram plötzlich nicht mehr angezeigt werden. Posts und Storys, die früher Hunderte erreichten, verschwinden im Nichts – ohne Warnung, ohne Erklärung.


Was steckt dahinter?


Plattformen wie Instagram nutzen Algorithmen, die bestimmen, was sichtbar ist und was nicht.


Besonders betroffen:


Inhalte, die kritische Perspektiven (gegen Rechtsaußen, politisches aus In- und Ausland) kulturellen Austausch (ME/CFS, Nachhaltigkeit, Stimmen verstärkend bei Not wie jetzt Iran/Syrien/Sudan/Kongo/Gaza/Ukraine, Femizid, Genozid) oder marginalisierte Themen verstärken.


Statt Transparenz gibt es stille Hintergrund gesteuerte Zensur – Accounts werden unsichtbar gemacht, Hashtags funktionieren nicht mehr, weniger Hashtags Schränken ein, Reichweite bricht ein.


Warum betrifft das u.a. auch @oculiauris?


Weil ich hier nicht nur Inhalte teile, sondern aktuell Stimmen verstärken will, die sonst verstummen, relativiert, verfälscht oder ignoriert werden. Doch wenn selbst neutrale Berichte oder Aufklärung über #mecfs oder #cwg64d und #naturundnachhaltigkeit unterdrückt werden, wird klar: Es geht nicht um „Sicherheit“, sondern um Kontrolle.


Was könnt ihr tun?


✅ Teilt bewusst, was ihr seht – Screenshots, Links, Reposts. Jede Weiterleitung umgeht den Algorithmus.

✅ Interagiert aktiv: Kommentare, Shares und Saves helfen, Inhalte sichtbar zu halten.

✅ Folgt mir auf anderen Kanälen wie Bluesky, Monnet, Tumblr oder WordPress bzw. eines Tages EU Plattformen und für D z. B. Wedium.social, falls dieser Account weiter eingeschränkt wird.

✅ Hinterfragt, was ihr nicht mehr seht – und sprecht darüber.


Warum mache ich das?


Weil ich glaube, dass Aufklärung und Solidarität keine Algorithmen brauchen – sondern Menschen, die hinsehen und handeln. Lasst uns zeigen, dass wir uns nicht teilen lassen. Gerade in aktuell intensiven Not-Phasen so wichtig.


Stell Dir vor, es wäre für Dich!


#cwg64d #oculiauris #mecfs #chancengleichheit #meinungsfreiheit


💡 PS: Falls ihr ähnliche Erfahrungen macht – schreibt mir! Gemeinsam finden wir sicher Wege, sichtbar zu bleiben.

Text
aktionfsa-blog-blog
aktionfsa-blog-blog

Dummheit ist messbar

Wie viel Medienkonsum können wir uns leisten?

In der Wirtschaftwoche finden wir eine Zusammenstellung von Vor- und Nachteilen der Handynutzung insbesondere in der Zeit des Heranwachsens. Inzwischen gibt es auch einige valide Daten dazu - allerdings immer noch viel zu wenige, wenn man bedenkt welchen zeitlichen Einfluss die Handynutzung inzwischen erlangt hat.

  • Nach einer OECD Studie sinken die Denk- und Problemlösefähigkeiten von Teenagern im Lesen, Rechnen und bei naturwissenschaftlichen Aufgabenstellungen seit etwa 2010.
  • Die Postbank Digitalstudie 2025 ergab, dass 18- bis 39-Jährige fast 86 Stunden einer Woche (das sind 168 Stunden) mit Handynutzung zubringen.
  • Die Handynutzung erzeugt bei Vielen einen Schlafmangel, der die Hirnreifung besonders Jugendlicher beeinträchtigt.
  • Es gibt einzelne Studien, die zeigen, dass Smartphone-Verbote in Bildungseinrichtungen zu verbesserten Noten führen können. Für eine grundlegende aussagekräftige Studie war bisher kein Geld da.
  • Wie Spielautomaten erzeugen Handys einen Nicht-aufhören-können-Effekt.
  • Die “Displacement Theorie” stellt fest, dass die verbrachte Zeit auf den sozialen Medien für andere wichtigere entwicklungspsychologische Aufgaben fehlt.
  • Es fehlt auch an Langeweile, die eine Grundvoraussetzung für “Gedankenwandern”, einer Voraussetzung für Kreativität ist.
  • Wir werden zu stillen Konsumenten …

So hat das Handy die “Brot und Spiele”-Funktion des Fernsehgeräts mit Sicherheit abgelöst. Ob es in gleichem Maße für den “sozialen Frieden” (und Apathie) sorgt, ist fraglich, denn die Algorithmen, die unsere ständig Aufmerksamkeit fordern, versuchen uns durch Zuspitzungen und einfache Lösungen zu manipulieren. Das führt langfristig eher zu naiven Weltsichten und zur Spaltung in der Gesellschaft.

In Deutschland geben wir nur 5% des Haushalts für Bildung aus - im Vergleich dazu sind es in den skandinavischen Ländern fast 10%. Dann sollten wir wenigstens dafür sorgen, dass diese 5% auch bei den Kindern ankommen und die Auswirkungen des Medienkonsums auch genauer untersuchen.

Mehr dazu bei https://www.wiwo.de/technologie/digitale-welt/smartphone-zu-weihnachten-belangloses-in-serie-scrollen-kinder-sich-um-den-verstand/100185267.html

Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3M4
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9383-20251222-dummheit-ist-messbar.htm
l

Text
lightyear2000
lightyear2000

Mein Artikel zum #PatriarchatDerDinge (Endler 2021): Der männliche Standard dominiert Technik. Ob Werkzeugnorm oder KI-Bias: Männliches ist Maßstab, Weibliches wird abgewertet. Das zementiert Ungleichheit in Medizin & Planung. Wir müssen diese Mechanismen hinterfragen.
https://wp.me/p46udc-tp

Text
loewentext-seo
loewentext-seo

Algorithmen & Social Media – Jenseits von Gut und Böse

Algorithmen sind in der öffentlichen Wahrnehmung gefährlich: Sie sollen entscheiden, zensieren und manipulieren. Doch in Wirklichkeit steckt im Algorithmus mehr Mensch als viele denken – und er ist auch nur so ethisch korrekt, wie die Menschen, die ihn benutzen.




Sind Algorithmen schlecht?

Besonders in Bezug auf Social Media wird Algorithmen eine Bösartigkeit zugesprochen: Sie sollen autonom entscheiden, Informationen vorenthalten und arglose User in die Irre führen. Ähnliche Gerüchte finden sich auch bzgl. des Online-Shoppings auf Amazon oder beim Surfen mit Google. Teilweise werden sogar Befürchtungen laut, dass Algorithmen die Macht über unser Leben an sich reißen.

Die Aussage ist zwar nicht ganz richtig, aber auch nicht ganz falsch: Die meisten Nutzer wissen mittlerweile, dass Facebook ihren Newsfeed über Algorithmen organisiert oder Google individuelle Werbungen und Empfehlungen entsprechend erzeugt. Wenige wissen jedoch, dass auch Bewerbungen in der Personalabteilung durch einen Algorithmus gefiltert werden oder Krankenkassen ihre Prämien mit Hilfe von Algorithmen kalkulieren.


Einfach erklärt:

Was sind Algorithmen?

Algorithmus klingt erst einmal nach abstrakten Zeichenfolgen aus der Mathematik. Aber im Grunde nutzt jeder von uns Algorithmen täglich im eigenen Denken und den eigenen Handlungen.

Denn Algorithmen sind nichts anderes als Mechanismen, also Prozess- und Handlungsabfolgen. Zähneputzen wäre so ein analoges Beispiel: Vom Öffnen der Zahnpasta bis zum Ausspülen des Mundes – jeder Schritt läuft automatisch ab, ohne dass wir groß nachdenken, abwägen oder entscheiden müssten.

Generell sind Algorithmen lösungsorientiert. Sie existieren, um eine bestimmte Aufgabe auszuführen bzw. ein Problem zu lösen. Dazu gibt es eine Reihe von Anweisungen, die zur Lösung gehören. Das kann zum Beispiel ein Rezept sein, das die einzelnen Kochschritte detailliert auflistet.

Oder eben auch eine Suchmaschine wie Google.



Algorithmen sind nicht neutral & objektiv

Ein Algorithmus kann nur so sachlich und neutral sein, wie es ihm Programmierung und Daten vorgeben, mit denen er Muster konstruiert. Fachleute sprechen hier von Social Bias (kognitive Verzerrung: soziale Erwünschtheit bzw. Effekt der Konformität).

Je nachdem, welche Daten genutzt werden, so ist auch die Einstellung des Programms. Damit spiegelt ein Algorithmus die Interessen, Vorstellungen und Wünsche von bestimmten Gruppen wider. Mindestens ebenso ausschlaggebend sind die gesellschaftlichen und kulturellen Prägungen der Entwickler dieser Technologien.


Die häufige Rede von „Rohdaten“ erzeugt daher ein falsches Bild

Es gibt keine reinen Daten, die frei von jeder menschlichen Verzerrung wären. Digitale Daten und Kategorisierungen sind bereits analysiert und interpretiert, sie können gar nicht neutral sein, da sie unter einer bestimmten Perspektive gewonnen und für ein bestimmtes Ziel verarbeitet werden.


Informationen und Daten sind eine reduzierte Darstellung, sie bilden nicht die Welt als solche ab.

Was Algorithmen aber können, ist Ordnungen und Muster festigen durch Reproduktion. Der Zufall wird dabei systematisch ausgeschlossen, schließlich liegen einem Algorithmus hochkomplexe Rechenprozesse zugrunde, die auf feste Vorgaben, Regeln etc. angewiesen sind.

Anders als ein Mensch, erzeugt die Künstliche Intelligenz Zusammenhänge nicht nach bekannten Mustern, sondern nach Statistik.


Vermenschlichung von Technologien und KI

Grundlage für die Vermenschlichung von Algorithmen ist die Sprache, mit der wir sie umschreiben oder erklären. Oft suchen wir begriffliche Analogien zu bekannten Dingen, um neue Entwicklungen oder Objekte zu erläutern. Das ist einerseits vollkommen legitim: Schließlich lassen sich komplexe Sachverhalte so einfacher verstehen.

In digitalen Bereichen sprechen wir daher vom Netz, Smartphone und Künstlicher Intelligenz – oder hören die Phrase, dass „Algorithmen entscheiden“, dies oder jenes zu tun. So bestimmen spezialisierte Algorithmen darüber:

  • welche Werbung online auf unserem Bildschirm eingeblendet wird,

  • wer Kredite erhält und wer nicht,

  • welche Dating-Vorschläge in der Singlebörse gemacht werden,

  • ob Häftlinge eine Bewährung erhalten

  • wer im Krankenhaus zuerst behandelt wird (Stichwort: Triage)

  • welche Informationen Journalisten recherchieren und in den Medien thematisieren



Aber entscheiden Algorithmen überhaupt irgendetwas?

Was hier völlig außen vor bleibt: die Mensch-Technik-Interaktion. Ist es am Ende nicht der Mensch selbst, der sich die Ergebnisse algorithmischer Prozesse ansieht, sie bewertet, trainiert und darauf reagiert bzw. handelt?

Es sind nämlich nicht die Algorithmen, die Handlungsmacht besitzen, sondern die Menschen, die sich auf die algorithmischen Prozesse blind verlassen. Bei jeder Umsetzung von Algorithmen sind Menschen am Werk, welche die Daten aufbereiten und interpretieren. Wir können daher menschliche Verantwortung nicht einfach an Maschinen, Computer und Programme abgeben.


Menschen entscheiden, Algorithmen berechnen

Menschliche Entscheidungen sind aus philosophischer Perspektive gute Gründe für oder gegen eine Sache. Und sie besitzen einen fundamentalen Unterschied zu dem, was algorithmische Optimierung ausmacht. Denn was in einer Entscheidung immer antizipiert wird, ist die Zukunft. Wir versuchen bei Handlungsalternativen die Folgen zu prognostizieren und stellen uns ein Als-ob vor.

Damit sind wir mit einer Unwägbarkeit konfrontiert, die sich nicht logisch auflösen lässt: Wir können nicht wissen, wie sich die Zukunft genau ereignet, weil zu viele Faktoren in und außerhalb unseres Selbst eine Rolle spielen. Wir stellen uns also bei jeder einzelnen Entscheidung unterbewusst eine Zukunft vor, von der wir nicht wissen können, ob sie eintrifft.

Entscheidungen sind von menschlicher Vorstellung und Fantasie beeinflusst

Ein absoluter Gegensatz zur mathematischen Berechnung, der Fiktion fremd ist. Zudem sind Entscheidungen mit Verantwortung, Ethik und Begründung verbunden. Sowohl im Selbstverhältnis als auch im Verhältnis zu den anderen Mitgliedern unserer Gesellschaft. Die Gründe für eine Entscheidung werden zur Begründung derselben. Damit sind Entscheidungen nicht frei von gesellschaftlichen Normen und normativen Selbstansprüchen.

Damit ist in jeder Entscheidung eine moralische Vorstellung enthalten: Eine mögliche Rechtfertigung nach der Richtigkeit der Beurteilung wird quasi geistig vorweggenommen. Moral und Ethik sind rein menschliche Aspekte.

Ein Algorithmus kennt diese Fragen nicht.


Wie FB & Insta Algorithmen funktionieren

Die Betreiber sozialer Netzwerke geben nur teilweise Auskunft darüber, wie ihre Algorithmen arbeiten. Die folgenden Faktoren sind bekannt:

  • Interaktion mit anderen Nutzern

  • persönliche Vorlieben

  • priorisierte Inhalte

  • Häufigkeit der Nutzung

  • aktive Zeit auf der Plattform

  • Aktualität der Inhalte

  • allgemeine Popularität der Themen

Das ist natürlich nur die halbe Wahrheit. Denn abgesehen vom persönlichen Geschmack gibt es noch viele weitere Algorithmen, die verschiedenste Aufgaben haben. In mehreren Tests wurde herausgefunden, welche Faktoren noch eine Rolle spielen für Social Media Algorithmen:

  • Instagram bevorzugt nackte Haut und schenkt entsprechenden Bildern eine höhere Reichweite

  • Facebook blendet Stellenausschreibungen nach Geschlecht ein: Frauen bekommen typische “Frauenberufe” ausgespielt, Männer dagegen vermeintliche Männerberufe etc.

  • Twitter präferiert beim Zuschnitt von Fotos weiße Menschen, weibliche Personen, jüngere Gesichter und schlanke Frauen (3)

Das einheitliche Ziel: Den User auf der Plattform zu halten.


Wie beeinflussen Algorithmen die Meinungsbildung?

Filterblasen, Echokammern und Fake News

Algorithmen arbeiten nicht moralisch, sondern effizient. Wie krass das daneben gehen kann, zeigt das viel diskutierte Beispiel Fake News: die verbreiten sich ja nur deshalb so gut, weil sie provokant oder emotional formuliert und dargestellt sind.

“Viele Studien haben gezeigt, dass die Reihenfolge in der Informationen angezeigt werden und auch deren wiederholte Anzeige, vor allem Unentschlossene und deren Meinungsbildung beeinflusst.” (Elisa Celis, 1)

So entstehen Filterblasen, Echokammern, Shitstorms und Hate Speech.



Gefahr Social Bots – Manipulation der Meinungsbildung

Ein wirklich ernstzunehmendes Problem in den Sozialen Netzwerken stellen die Social Bots dar: das sind kleine Software-Roboter, die als Fake-Profile eingesetzt werden, um zu liken, teilen, kommentieren und sogar Beiträge zu kreieren.

Diese Manipulationsmethode ist für Demokratien tatsächlich eine Gefahr, auch wenn sie in Deutschland noch nicht so verbreitet ist. Sie wurde nachweislich bei politisch-gesellschaftlichen Themen im Ausland eingesetzt:

  • Brexit (EU-Austritt Großbritanniens)

  • Ukrainekonflikt

  • US-Präsidentschafts-Wahlkampf 2016

  • spanisches Referendum über katalanische Unabhängigkeit 2017


Informationsflut & kognitive Verzerrungen


Was Unternehmen und andere Akteure letztendlich ausnutzen, sind 2 psychologische Aspekte.

Im Online-Marketing ist Content-Schock längst ein Schlagwort:

Im Internet prasseln derart viele unterschiedliche Infos und Reize auf uns ein, dass unsere Konzentration sinkt und wir meist nur noch die allerersten Informationen aufmerksam wahrnehmen können (vgl. Ankereffekt).

In der Folge verlieren sich hochwertige Infos weitaus häufiger im World Wide Web.

Neben der eingeschränkten Aufmerksamkeit verstärken kognitive Verzerrungen das Problem erheblich (4).


Beispiele für typische kognitive Verzerrungen:

  • Negativitätseffekt (negativity bias)

  • Ankereffekt (anchoring effect)

  • Bestätigungsfehler (confirmation bias)

  • Herdeneffekt

  • Dunning-Kruger-Effekt

  • Mitläufereffekt (Bandwagon-Effekt)

  • Wahrheitseffekt (Illusion of Truth Effekt)

  • In-Group Bias

  • Verzerrungsblindheit (Bias blind spot)

  • Emotionale Beweisführung (emotional reasoning)


Social Media Algorithmen spiegeln die Werte der User wider

Algorithmen haben kein Eigenleben. Alles, was sie tun und darstellen, spiegelt lediglich die Werte- und Vorstellungswelt der Gesellschaft wider. Darf man also einem Unternehmen wie Instagram vorwerfen, sein Algorithmus bevorzuge Selbstdarstellung, Oberflächlichkeiten und Optik, wenn die App doch genau dafür entwickelt wurde und sich über Werbepartnerschaften etc. finanziert?

Natürlich ist es ein großes Problem, dass KI-basierte Technologien diskriminieren, Fake News pushen und Frauen bei Bewerbungen systematisch benachteiligen. Allerdings ist das ein menschengemachtes Problem, kein rein technisches.

Schließlich entscheiden sich Menschen in der Personalabteilung dafür, einen Algorithmus schalten und walten zu lassen, ohne sich ein eigenes Urteil zu bilden. Und auch auf Social Media entscheiden sich Menschen dafür, auf vorgeschlagenen Content zu klicken, auf eine bestimmte Art von Bildern und Texten zu reagieren, zu liken, zu kommentieren usw.

Die Arbeit von Algorithmen ist nichts anderes als ein Abbild unserer bisherigen Einstellungen und Taten. Anstatt also auf die bösen Algorithmen zu schimpfen, sollten wir uns lieber fragen, inwiefern wir selbst zur Aufrechterhaltung falscher Normen und Ideale, die auf Social Media so gerne verbreitet werden, beitragen.

Und warum unser Werte-Anspruch und unsere Werte-Realität so weit auseinanderklaffen. Hier sind wieder wir als Gesellschaft und die Politik gefragt, welche die Firmen und ihre kommerziellen Interessen hinter den Algorithmen unbedingt reglementieren muss.


Fazit: Algorithmen & Social Media

Und die Moral von der Geschicht? Vertraue blind der Technik nicht. In letzter Instanz sind es immer Menschen, die Algorithmen mit bestimmten Daten füttern, durch ihr Verhalten auf bestimmte Muster trainieren und sich von Algorithmen leiten lassen. Die vielen Missverhältnisse im Internet und auf Social Media sollten uns daran erinnern, vorsichtig zu sein. Im besten Fall regen sie uns an, wieder mehr über das Menschsein nachzudenken und darüber, was Gemeinschaft oder Gesellschaft bedeuten.

Doch dafür braucht es unbedingt eine Sprache, die Algorithmen und alles Technische nicht vermenschlicht bzw. den Menschen nicht mit Computern vergleicht. Algorithmen sind nicht böse, sie werden mit kommerziellen Zielen eingesetzt. Hier liegt das Problem.


Quellen:
1) Demokratiezentrum Wien
2) Filippo Menczer und Thomas Hills: Algorithmen – die digitale Manipulation
3) Inga Pöting: “Diskriminierende Algorithmen sind nicht einfach technische Fehler”
4) Stangl, W. (2022, 4. Juli): Online Lexikon für Psychologie und Pädagogik

Text
digitalnaiv
digitalnaiv

Lange ist’s her, dass ich eine #AufDieOhren-Hörempfehlung geteilt habe. Jetzt ist es wieder so weit: Die ZEIT fragt in ihrem neuen Podcast „Neustart“ – ist Social Media tot? Ein spannendes Gespräch über Nostalgie, KI-Content und die Frage, wo heute eigentlich noch das „Soziale“ steckt. #SocialMedia

Text
oculiauris
oculiauris

🛡️ Saubere Feeds aufbauen: So trainierst du die Algorithmen richtig


Viele Menschen merken, dass ihre Feeds auf Instagram, Threads oder Bluesky plötzlich voller Bots, rechter Inhalte oder Putin-/AfD-Propaganda sind. Die gute Nachricht: Du kannst die Algorithmen aktiv „umerziehen“. Hier eine praktische Anleitung, wie du deine Feeds Schritt für Schritt sauber hältst.


1. Allgemeine Grundregeln


Nie interagieren mit Rechts-/Bot-Content – kein Like, kein Kommentar, nicht speichern.

Sofort blockieren und melden – das ist der stärkste Algorithmus-Impuls.

Nicht lange ansehen – einfach weiterscrollen, sonst denkt der Algorithmus: „Das interessiert dich.“

Positiv interagieren – Like, speichere und kommentiere Inhalte, die deine Werte teilen.

Eigene Hashtags positiv wählen – zum Beispiel #Demokratie, #Nachhaltigkeit, #mecfsAwareness, #zwergpudel, nicht #AfD oder #Putin.


2. Instagram


Feed steuern: Unerwünschte Posts über „Nicht interessiert“ markieren.

Favoriten-Feed nutzen: Nur deine ausgewählten Accounts anzeigen lassen.

Einstellungen anpassen: Profil → Einstellungen → Werbepräferenzen → Themen. Extreme Politik kannst du ausschließen.

Blockieren statt ignorieren – jeder Block wirkt doppelt (Algorithmus + Schutz).

Storys und Reels sofort wegwischen, wenn toxisch.


3. Threads


Gezielt folgen: Nur Accounts, die zu dir passen (naturverbunden, demokratisch, kreativ).

Nicht in rechte Threads einsteigen – auch nicht zum Widersprechen, sonst bekommst du mehr davon.

Blockieren sofort: Threads reagiert sehr sensibel, ein Block wirkt stark.

Eigenen Content klar positionieren: Natur, Hunde, ME/CFS, Demokratie.


4. Bluesky


Content-Filter aktivieren: Unter „Moderation“ Feeds filtern, zum Beispiel Hassrede oder Propaganda.

Eigene Feeds abonnieren: Es gibt themenspezifische Feeds für Natur, Kunst oder Politik kritisch.

Blockieren und Melden sofort umsetzen.

Kleine Communitys stärken: Liken, reposten, antworten – so lenkst du deine Timeline.


5. Extra-Tricks


Lieblingsaccounts als Favoriten markieren (Instagram) oder eigene Feeds kuratieren (Bluesky).

Bio klar gestalten mit Themen wie Natur, Kunst, ME/CFS oder Antifaschismus – das schreckt Bots ab.

Nicht zu viele Politik-Hashtags mischen – lieber wenige, klare.

Routine: Einmal pro Woche aufräumen – blockieren, entfolgen, „nicht interessiert“ nutzen.


✨ Nach zwei bis vier Wochen wird dein Feed sichtbar sauberer. Rechte Inhalte und Bots verschwinden Schritt für Schritt, und du siehst mehr von dem, was dich wirklich interessiert.


Text am 22.08.2025 von ©️®️CWG verfasst und von KI formatiert für Insta und Tumblr. Teilen, Folgen und Herzen verteilen sind willkommen – Spam & Bots werden blockiert.

Text
sammeldeineknochen
sammeldeineknochen

Gegen die allumfassende Kalkulierbarkeit des Verhaltens drängt sich die Parole auf: Macht euch unberechenbar!

Guillaume Paoli: “Etwas besseres als Optimismus”, S.79

Text
bspoquemagazine
bspoquemagazine

📰 Wie verändert das Internet den Journalismus?

Eine neue Studie des Max-Planck-Institut für Bildungsforschung deckt auf: Online-Schlagzeilen werden immer länger, emotionaler – und oft negativer.
Warum?

Es geht um Klicks, nicht unbedingt um Qualität.
Forscher:innen sprechen von einem kulturellen Selektionsprozess, der durch Algorithmen verstärkt wird.
Was bedeutet das für unsere Medienkompetenz?

📖 Zur Originalstudie: @humanitiespecs
🔗 Read More

Text
oeffentlicheversicherung
oeffentlicheversicherung

Es gibt einige Stimmen, die nach Algorithmen im Fediverse rufen und meinen, dass damit eine Schere zu den Kommerziellen geschlossen wird und damit der Zuwachs neuer User:innen erheblich gesteigert werden kann. Der Ruf danach ist aber eigentlich ziemlich sinnfrei, da das Fediverse voll von Algorithmen ist, sie werden nur nicht als solche wahrgenommen.

Es geht vielmehr um das Profiling eurer Persönlichkeit, um daraus Entscheidungen abzuleiten, was euch als Nächstes gezeigt werden soll. Also weg von der chronologischen Timeline, hin zu einer orchestrierten Sicht auf das, was eine Person oder eine Gruppe entschieden hat, was euch zu interessieren hat.

Nun, Profiling über eure Daten gibt es im Fediverse nicht. Und das ist auch gut so. Denn genau diese Daten sind anfällig für Missbrauch. Sie sagen eben mehr über dich aus als das, was du beiläufig geliked hast. Damit werden detaillierte Persönlichkeitsprofile über euch erstellt, die einen tiefen Einblick in eurer Privatleben und Persönlichkeit erlauben. Das sind die Daten, mit denen META, Google und Amazon ihr Geld verdienen. Diese Daten zu sammeln und auszuwerten würde uns die Freiheit nehmen über uns selbst zu bestimmen.

Also, lasst uns die Begriffe bitte richtig verwenden. Nur kann können wir uns bei unseren Anliegen auch wirklich verstehen.

#Fediverse - Ja
#Algorithmen - Ja
#Persönlichkeitsprofile - Nein
#Profiling - Nein

Text
bauerntanz
bauerntanz

„Das Internet zurückerobern, Alternativen stärken!“

Das freie Internet wird abgeschafft – es wurde von den Big-Tech-Monopolen übernommen. Die wachsende Dominanz von Plattformkonzernen wie Meta, X oder ByteDance (TikTok) für Information und Austausch führt zu einer Konzentration von Meinungsmacht, die unsere Demokratie gefährdet. 
Auf Netzpolitik.org klärt Markus Reuter auf:
Kurz vor der Bundestagswahl fordern verschiedene Verbände sowie prominente…


View On WordPress

Text
kiaktuell
kiaktuell

Neue Online-Plattformen bieten spezialisierte KI-Weiterbildungen für das Gesundheitswesen an

Die Digitalisierung des Gesundheitswesens schreitet unaufhaltsam voran, und Künstliche Intelligenz (KI) spielt dabei eine Schlüsselrolle. Um den wachsenden Anforderungen an Fachkräfte im Gesundheitswesen gerecht zu werden, entstehen immer mehr spezialisierte Online-Plattformen, die gezielte Weiterbildungsangebote im Bereich KI bereitstellen. Diese innovativen Lernformate bieten den Mitarbeitenden…

Text
kiaktuell
kiaktuell

KI-basierte Lösungen für die Automatisierung in der Industrie im Aufschwung

In den letzten Jahren hat die Industrie einen bemerkenswerten Wandel durchlebt, der durch die Einführung von Künstlicher Intelligenz (KI) in die Automatisierung geprägt ist. Unternehmen weltweit setzen zunehmend auf KI-basierte Lösungen, um Produktionsprozesse zu optimieren, Kosten zu senken und die Wettbewerbsfähigkeit zu steigern. Diese Entwicklungen sind nicht nur technologischer Natur,…

Text
kiaktuell
kiaktuell

US-Regierung plant umfassende Überarbeitung der KI-Politik

Die rasante Entwicklung von Künstlicher Intelligenz (KI) hat in den letzten Jahren nicht nur technologische Fortschritte, sondern auch zahlreiche gesellschaftliche und ethische Fragen aufgeworfen. Angesichts der wachsenden Bedenken hinsichtlich der Auswirkungen von KI auf Arbeit, Privatsphäre und Sicherheit hat die US-Regierung angekündigt, eine umfassende Reform ihrer KI-Politik einzuleiten.…

Text
kiaktuell
kiaktuell

Mistral AI und NVIDIA enthüllen ein neues 12B-Modell für präzisere Codierungen

In der sich rasant entwickelnden Welt der Künstlichen Intelligenz haben Mistral AI und NVIDIA einen bedeutenden Fortschritt angekündigt: ein neues 12B-Modell, das die Möglichkeiten der Codierung revolutionieren soll. Diese innovative Entwicklung könnte nicht nur die Effizienz in der Programmierung steigern, sondern auch neue Maßstäbe in der Interaktion zwischen Mensch und Maschine setzen. Mit…

Text
kiaktuell
kiaktuell

Einzelhandelsunternehmen personalisieren Kundenerlebnisse durch fortschrittliche KI

In der heutigen, schnelllebigen Geschäftswelt sind Einzelhandelsunternehmen gefordert, sich von der Konkurrenz abzuheben und ihren Kunden ein einzigartiges Einkaufserlebnis zu bieten. Eine der vielversprechendsten Methoden, um dies zu erreichen, ist der Einsatz von Künstlicher Intelligenz (KI). Durch innovative Technologien können Unternehmen personalisierte Erlebnisse schaffen, die auf die…

Text
kiaktuell
kiaktuell

KI-Systeme verstärken bestehende gesellschaftliche Vorurteile

In der heutigen digitalen Ära spielen Künstliche Intelligenz (KI) und maschinelles Lernen eine immer wichtigere Rolle in unserem täglichen Leben. Von personalisierten Empfehlungen bei Streaming-Diensten bis hin zu automatisierten Entscheidungsprozessen in der Personalbeschaffung – KI-Systeme durchdringen unterschiedlichste Bereiche. Doch diese Technologien sind nicht neutral; sie können…

Text
kiaktuell
kiaktuell

Berufsberatung wird durch KI präziser und individueller

In einer zunehmend digitalisierten Welt spielt Künstliche Intelligenz (KI) eine entscheidende Rolle in vielen Lebensbereichen, einschließlich der Berufsberatung. Die Kombination aus Datenanalyse und modernsten Algorithmen ermöglicht es, individuelle Karrierewege präziser zu gestalten und auf die spezifischen Bedürfnisse von Ratsuchenden einzugehen. Dieser Artikel beleuchtet, wie KI die…

Text
kiaktuell
kiaktuell

UN plant globale Initiative zur Sicherstellung ethischer KI-Nutzung

Die Nutzung von Künstlicher Intelligenz (KI) nimmt weltweit rasant zu, was sowohl Chancen als auch Herausforderungen mit sich bringt. Um sicherzustellen, dass KI-Technologien verantwortungsbewusst und ethisch eingesetzt werden, hat die Vereinten Nationen eine globale Initiative ins Leben gerufen. Diese Initiative zielt darauf ab, Standards und Richtlinien für die Entwicklung und Nutzung von KI zu…

Text
kiaktuell
kiaktuell

KI-basierte Systeme verstärken bestehende Vorurteile in der Gesellschaft

Die rasante Entwicklung von KI-Technologien hat in den letzten Jahren nicht nur die Art und Weise, wie wir leben und arbeiten, revolutioniert, sondern auch tiefgreifende gesellschaftliche Fragen aufgeworfen. Eine der drängendsten Herausforderungen, die sich aus der zunehmenden Verbreitung von KI-basierten Systemen ergibt, ist die Verstärkung bestehender Vorurteile in der Gesellschaft. Diese…