„Männer sind durch Leistung motiviert, Frauen durch soziale Anerkennung“

In einem Artikel bei Reddit wird folgendes geäußert:

Deep learning models reveal replicable, generalizable, and behaviourally relevant sex differences in human functional brain organization
I read this study on how a trained AI was able to predict with 90% accuracy, whether a brain was male or female. It proves once and for all that men and women really are wired differently. It just came out a week ago and it already has feminists throwing a hissy fit. That’s how you know it’s legit. Here’s a link to the full study btw.

Men are motivated by achievement, women are motivated by social approval.
What especially fascinated me, was that significant and consistent gender differences were found in the parts of the brain that trigger rewards, among other things. This is consistent with other studies, which show that whereas men’s reward centers are triggered by achievement, women’s reward centers are triggered by social approval. At our core, we are motivated by different things!

Men are less concerned with social norms, conformity, emotional expression…
And are more prone to take risks due to having a proportionally smaller prefrontal cortex. Meanwhile, women have a proportionally much larger one. As a result…

Women are more aware of social norms, more concerned about social conformity…
And on top of that are more risk averse compared to men. They are also more emotionally expressive. This of course we knew. But did you know they can also modulate their emotions far more? This means means they can literally rationalize themselves into reducing emotional impact or even change how they feel about something if the need arises. This is weird if you are motivated by achievement, but makes perfect sense if your goal is to gather social approval!

Anyway, biology is not women’s main driver, contrary to what I used to think. It’s validation.
Because when you take into account that women are as motivated to gain social approval as men are to achieve things, the status effect that for example dating a tall guy brings, is MUCH more significant than I initially assumed.

Und noch einmal durch Deepl:

Deep-Learning-Modelle enthüllen reproduzierbare, verallgemeinerbare und verhaltensrelevante Geschlechtsunterschiede in der funktionellen Organisation des menschlichen Gehirns
Ich habe diese Studie gelesen, in der eine trainierte KI mit 90 %iger Genauigkeit vorhersagen konnte, ob ein Gehirn männlich oder weiblich ist. Damit ist ein für alle Mal bewiesen, dass Männer und Frauen tatsächlich unterschiedlich verdrahtet sind. Die Studie wurde erst vor einer Woche veröffentlicht, und die Feministinnen sind bereits in heller Aufregung. Daran erkennt man, dass sie echt ist. Hier ist übrigens ein Link zur vollständigen Studie.

Männer sind durch Leistung motiviert, Frauen durch soziale Anerkennung.
Was mich besonders fasziniert hat, war, dass signifikante und konsistente geschlechtsspezifische Unterschiede in den Teilen des Gehirns gefunden wurden, die unter anderem Belohnungen auslösen. Dies deckt sich mit anderen Studien, die zeigen, dass die Belohnungszentren von Männern durch Leistung ausgelöst werden, während die Belohnungszentren von Frauen durch soziale Anerkennung ausgelöst werden. Im Grunde sind wir also durch unterschiedliche Dinge motiviert!

Männer kümmern sich weniger um soziale Normen, Konformität, emotionalen Ausdruck…
Und sie neigen eher dazu, Risiken einzugehen, weil sie einen proportional kleineren präfrontalen Kortex haben. Frauen hingegen haben einen im Verhältnis viel größeren Kortex. Das hat zur Folge…

Frauen sind sich sozialer Normen bewusster, achten mehr auf soziale Konformität…
Außerdem sind sie im Vergleich zu Männern risikoscheuer. Sie sind auch emotional ausdrucksstärker. Das wussten wir natürlich. Aber wussten Sie auch, dass sie ihre Emotionen viel besser modulieren können? Das bedeutet, dass sie sich buchstäblich selbst rationalisieren können, um emotionale Auswirkungen zu verringern oder sogar ihre Gefühle zu ändern, wenn es nötig ist. Das ist seltsam, wenn Sie durch Leistung motiviert sind, macht aber durchaus Sinn, wenn Ihr Ziel darin besteht, soziale Anerkennung zu erhalten!

Jedenfalls ist die Biologie nicht der Hauptantrieb für Frauen, im Gegensatz zu dem, was ich früher dachte. Es ist die Bestätigung.
Denn wenn man bedenkt, dass Frauen genauso motiviert sind, soziale Anerkennung zu erlangen, wie Männer, etwas zu erreichen, ist der Statuseffekt, den z. B. eine Beziehung mit einem großen Mann mit sich bringt, viel bedeutender, als ich ursprünglich angenommen hatte.

Eure Meinung dazu?

54 Gedanken zu “„Männer sind durch Leistung motiviert, Frauen durch soziale Anerkennung“

  1. Das ist ja kein Large Language Model, sondern ein Klassifizierer, durch den dreidimensionale Bilddaten gejagt werden. Wenn sich das wirklich reproduzieren lässt, ist das natürlich interessant. Das Mapping von Gehirnregionen auf spezifisches Verhalten ist sicher nicht immer 100 Prozent korrekt, aber schon rein strukturell scheint es ja deutliche Unterschiede zu geben. Spannend wäre, inwiefern transsexuelle Menschen hier andere Merkmale aufweisen…

  2. Dieser AI-Output deckt sich weitgehend mit meinem persönlichen Erleben in einigen Jahrzehnten. Wie kann das sein, wenn doch AI auf woke und feministisch getrimmt ist?

    Ich vermute den Grund darin, dass bei Geschlechtervergleichen zwangsläufig immer ein Bias existiert. Entweder die jeweilige Studie ist feministisch geprägt oder freiheitlich. Das bedeutet, sie ist zwangsläufig kognitiv verzerrt. Umso grundsätzlich unterschiedlicher Männer und Frauen ticken, umso stärker ist die Verzerrung. Daher ist es im Kern nicht möglich, von geschlechtlichen Wesen in diesen Fragen Objektivität zu bekommen. Alle sind zwangsläufig parteiisch oder gruppenegozentrisch.

    Wenn man jetzt eine zwar feministisch und woke programmierte AI auf die Unterschiedlichkeit von geschlechtlichem Verhalten loslässt, hat man trotz der Programmierung (Frauen lieb, Männer böse) einen wichtigen Vorteil. Sie ist weder hormonell noch biologisch getrieben. AI hat (noch) kein PMS.

    Diese AI stellt also plötzlich eklatante männliche und weibliche Verhaltensdeterminanten fest, obwohl sie sich als AI selbst nicht identifizieren kann.

    Und dann kommt sie zu dem Output, dass Männer erheblich leistungsorientierter und freiheitsliebender sind, Frauen hingegen auf soziales Ansehen bedacht und kollektivistisch handelnd. Damit äußert sich die AI nicht mal unmittelbar entgegen ihrer woke-feministischen Programmierung. Sie schaut vielmehr geschlechtslos auf die Verhaltensweisen der Menschen. Denn für die feministisch getrimmte AI ist Konformismus etwas Gutes.

    Und sie zeigt noch etwas: Männer und Frauen ticken in der Regel wirklich grundlegend unterschiedlich, was ja in einer woke-feministischen Welt immer krampfhaft negiert werden soll.

    • Wenn man jetzt eine zwar feministisch und woke programmierte AI auf die Unterschiedlichkeit von geschlechtlichem Verhalten loslässt, hat man trotz der Programmierung (Frauen lieb, Männer böse) einen wichtigen Vorteil. Sie ist weder hormonell noch biologisch getrieben. AI hat (noch) kein PMS.

      Damit äußert sich die AI nicht mal unmittelbar entgegen ihrer woke-feministischen Programmierung. Sie schaut vielmehr geschlechtslos auf die Verhaltensweisen der Menschen. Denn für die feministisch getrimmte AI ist Konformismus etwas Gutes.

      Du hast erkennbar überhaupt keine Ahnung, wie „AI“ bzw. die machine learning Methoden, die in diesem paper verwendet werden, (CNN, convolutional neural network) funktionieren. Bitte hör auf damit, so einen Unfug zu verbreiten.

      • hör auf damit, so einen Unfug zu verbreiten

        Würdest du meinen Kommentar als „Desinformation“ einordnen? So dass seine Verbreitung bekämpft werden muss, wie es sich die EU-Kommission und die WHO für 2024 auf die Fahne geschrieben haben?

        Wenn ja, dann mach doch und melde ihn beim entsprechenden Denunziationsportal. Wenn nein, dann halte einfach die Finger still oder antworte etwas halbwegs Substanzielles. Danke.

        • Ja, dein Kommentar ist Desinformation. Du hast keine Ahnung wie machine learning funktioniert und reimst dir irgend einen völlig unrichtigen Unfug zusammen.

          Nein, ich finde nicht dass man das „bekämpfen“ muss. Es ist ok, dass Leute Unfug reden. Passiert im Internet jeden Tag tausendfach. Wundere dich halt nicht über Widerspruch.

          Dass du mit deinen Ansichten über AI komplett daneben liegst, IST die Substanz. Ich schreibe das auch für die Mitleser, sonst kommt noch jemand auf die Idee und nimmt das für bare Münze was du da über AI zusammenfantasierst. So wie du das hier darstellst funktioniert machine learning einfach nicht. Nicht einmal im Ansatz. Wenn du substanziell diskutieren willst, nimm das erst einmal zur Kenntnis.

          • hör auf damit, so einen Unfug zu verbreiten

            Es ist ok, dass Leute Unfug reden.

            Nein, das ist natürlich kein Widerspruch. /ironie

            Habe heute keinen Bock, mich an diesem woke-transformatorischen Doppelsprech und einer Femo-Diskursführung zu reiben.

          • Deine zusammengereimten Ansichten über AI sind unrichtig. Auf Grundlage dieser unrichtigen Einbildungen ist keine vernünftige Diskussion möglich.

            Du weigerst dich offenbar, das zur Kenntnis zu nehmen. Stattdessen kommt „sag doch mal was substanzielles“ und andere rhetorische Ablenkungsmanöver. Femo-Diskursführung, die reagieren auch so pikiert wenn man sie auf unrichtige Annahmen hinweist und versuchen mit Nebenaspekten abzulenken.

            Was soll man denn substanzielles zu deinen unrichtigen und zusammenfantasierten Ansichten über AI sagen, außer dass sie unrichtig und zusammenfantasiert sind?

            Erst mal sollten diese unrichtigen Einbildungen ausgeräumt werden, DANN kann man vielleicht damit beginnen substanziell über das Thema zu diskutieren.

          • @beweis Ich habe manchmal das Gefühl, du missverstehst Pingpong.

            Ich habe die Diskussion zwischen euch jetzt schon länger verfolgt, und meine nun herausgefunden zu haben, worauf er raus will und warum er dich (durchaus unfreundlich und teilweise böse, das ginge besser @pingpong) so angeht.

            Ein Missverständnis ist, dass du manchmal glaubst, PingPong sei auf der „anderen Seite“. Das stimmt so nicht, er sieht viele Dinge ähnlich wie du. Euer größter Streitpunkt ist das große WIE – Wie bewirkt man Veränderung, um die Situation zu verbessern.

            Dein Wie ist es, Menschen über die schlimme Situation aufzuklären, aufzuzeigen, wie es vom aktuellen Stand weitergeht und wie die Probleme sich zuspitzen können. Deine Hoffnung ist es, Menschen zu Widerstand zu bringen, raus aus dem „Mitmachen“.

            Pingpong denkt, dass das so nicht funktioniert. Er vertritt die Auffassung, dass man damit die Menschen eher vergrault, statt sie zu bewegen. Deswegen setzt er auf faktennahes Argumentieren und auf das individuelle „anders und als Vorbild leben“ in der Hoffnung auf kleine konstruktive Veränderungen.

            Mein Wunsch an euch beide wäre, dass ihr mal genau über dieses Wie sprecht, warum ihr es so unterschiedlich seht, und was ihr dort voneinander lernen könnt. Es wäre schade, wenn ihr euch trotz eurer sehr ähnlichen Problemsicht an diesem Wie aufreibt und spalten lasst.

          • @pingpong
            Erklär doch einfach mal, wie AI funktioniert, wenn alle keine Ahnung haben.

            Meine These ist recht simpel: AI funktioniert so, wie sie programmiert wird. Wenn der Programmierer auf Diversität setzt, kommen halt, wie bei Gemini, schwarze Nazis und schwarze europäische Physiker aus dem 18. Jahrhundert bei heraus.

          • Habe ich hier doch schon oft genug getan, einfach mal lesen.

            Ein Fehler liegt m.E. schon im Begriff Artificial Intelligence selbst. Wir wissen doch überhaupt nicht, was Intelligenz überhaupt ist. Es wäre besser, es stattdessen als das zu bezeichnen was es tatsächlich ist: maschinelle Mustererkennung.

          • Im englischen Sprachgebrauch hat „intelligence“ eine etwas andere Bedeutung als das deutsche Wort „Intelligenz“. Das sieht man z.B. an Begriffen wie CIA – Central Intelligence Agency. Intelligence geht dabei eher in die Richtung Information, Nachricht, Einsicht, Auffassung o.ä., nicht ganz das was man im Deutschen unter Intelligenz (also etwa Problemlösungsfähigkeit, Abstraktionsvermögen, o.ä.) versteht.
            Machine Learning ML ist ein Teilgebiet der KI, wird allerdings von Laien häufig synonym verwendet, was dann leider ebenfalls zur Begriffsverwirrung führt.

          • @anne:

            Das „I“ im englischen Begriff „AI“ bezeichnet recht eindeutig das, was man im deutschen unter „Intelligenz“ versteht. Es hat sehr wenig mit der anderen Bedeutung zu tun, die du beschreibst.

          • „maschinelle Mustererkennung“

            Und woher nimmt die KI die Muster? Von Menschen, die sie mit Daten füttern und reichlich Spielraum haben, Daten zu „gewichten“.

          • Es ist tatsächlich sehr schwierig und aufwendig, neutrale und unvoreingenommene Daten herzubekommen. Häufig macht es einfach die Masse, und Verzerrungen werden ausgemittelt. Allgemein gilt halt Garbage in, garbage out.

            Ein Beispiel aus der Computer Vision wäre die Unterscheidung zwischen Wölfen und Hunden. Eine diskriminative KI wurde trainiert mit Bildern, bei denen Wölfe draußen im Wald, und die Hunde im Haus oder in städtischer Umgebung dargestellt waren. Die KI lernte, die Kategorisierung nach dem Hintergrund vorzunehmen, was sicher nicht der Sinn der Sache war. So etwas entdeckt man halt häufig erst im Nachhinein. Kein Entwickler oder Modellierer hatte damit gerechnet. Immerhin war die Explainability für die Fehleinschätzungen gegeben, und das Modell konnte nachtrainiert werden.

          • Ein Missverständnis ist, dass das Verhalten von lernenden Algorithmen nicht direkt programmiert wird. Diese Algorithmen analysieren selbstständig Daten und finden darin Korrelationen. Manipulierbar sind sie durch Auswahl des Lernmaterials, aber nicht im eigentlichen Sinne durch die Programmierung.

          • @Sepp

            Deine Hoffnung ist es, Menschen zu Widerstand zu bringen, raus aus dem „Mitmachen“.

            Dann kommt es aber falsch rüber. Ich will nicht missionieren, sondern hinterfragen und erhellen, vor allem mich. Was Menschen schließlich aus Erkenntnissen machen, ist ja deren eigene Angelegenheit. Und um zu hinterfragen, ob meine „Erhellungen“ absurd oder gar komplett falsch sind, kippe ich die Überlegungen oft hier in die Kommentare.

            pingpong springt darauf in der Regel sehr schnell an, hinterfragt und kritisiert meine teilweise irre erscheinenden Behauptungen. Da bin ich sehr froh drüber, weil mein Friseur oder mein Kind in diesen Themen als Sparring-Partner nicht wirklich geeignet sind.

            Wenn allerdings auf meine steilen Behauptungen plötzlich lediglich nur noch „du spinnst“, „hast gar keine Ahnung“, „hör auf sowas zu schreiben“ oder „bist hysterisch“ kommt, dann fehlt die entscheidende Substanz.

            Denn die besteht eben im inhaltlichen Reiben und im Kampf mit Argumenten. Heutzutage liest sich das vielleicht wirklich wie unversöhnbare Wut, Hassrede, Spaltung. Ich empfinde das aber nicht so. Es wird allerdings zu vergebener Gedankenmüh, wenn inhaltlich lediglich „du hast ja keine Ahnung“ oder gar „hör auf, sowas zu verbreiten“ kommt.

          • @beweis:

            Feministinnen behaupten, dass Männer Frauen unterdrücken, dass wir ein Patriarchat haben, dass es gefährlich sei für Frauen wenn sie Abends alleine nach Hause gehen, dass Kinder besser zur Mutter gehören, dass Frauen weniger verdienen weil sie diskriminiert werden usw. Die Liste ließe sich lange fortsetzen.

            Hier in diesem Forum werden solche Behauptungen sehr kritisch gesehen, und nicht zuletzt du selbst betonst immer wieder, welche schädlichen Auswirkungen es hat, wenn diese Dinge immer und immer wieder über alle Kanäle wiederholt werden. Du benutzt oft recht drastische Vokalbeln dafür: Mainstream-Lügenpresse, staatliche Zofenpropaganda, es wird eine Einheitsmeinung über die Menschen gestülpt, es gibt transformatorische Tendenzen usw.
            Ich denke du hast hier durchaus einen Punkt. Es hat tatsächlich negative und nicht zu unterschätzdende Auswirkungen, wenn solche unrichtigen und von Ideologie getriebenen Behauptungen immer wieder gebetsmühlenartig wiederholt werden. Wir sehen die negativen Auswirkungen, u.a. deshalb sind wir hier in diesem Forum aktiv.

            Jetzt stell dir bitte vor, du weist eine Feministin darauf hin, sie liege beispielsweise mit der Behauptung, Frauen werden diskriminiert und verdienen deshalb weniger als Männer falsch, und sie solle bitte damit aufhören so etwas zu verbreiten. Als Antwort bekommst du: „Das wird zu vergebener Gedankenmüh, wenn inhaltlich lediglich “du hast ja keine Ahnung” oder gar “hör auf, sowas zu verbreiten” kommt. Da fehlt die entscheidende Substanz.“
            Damit lässt dich die Feministin stehen und macht einfach weiter damit, ihre unrichtigen Behauptungen zu verbreiten.

            Wie ist deiner Ansicht nach eine Diskussion möglich, wenn eine Seite grundsätzlich nicht anerkennen will, dass sie daneben liegt? Wenn auf den Hinweis „das ist unrichtig, so verhält es sich in der Realität nicht“ als Antwort lediglich „schreib doch mal was substanzielles“ kommt? Was soll man deiner Ansicht nach auf unrichtige Behauptungen „inhaltlich“ oder „substanziell“ antworten, außer dass sie, naja, unrichtig sind (und die ständige Wiederholung negative Auswirkungen hat, siehe ideologisch-radikaler Feminismus)?

            Oder nimm auf einer allgemeineren Ebene die Diskussion um gesellschaftliche Regeln vs. individuelle Freiheit. Man kann Regeln hauptsächlich unter normativen Gesichtspunkten betrachten. Dann kommt es hauptsächlich darauf an, wer die Macht hat Regeln zu setzen und durchzusetzen. Eine Engländer, der zu uns aufs Festland kommt, könnte argumentieren dass er zuhause auf der linken Straßenseite fährt, und dass er nicht einsieht warum er hier rechts fahren soll. Es wäre eine Einschränkung seiner individuellen Freiheit, diese Regeln wären nur beliebig von der Gesellschaft (oder von kollektivistischen Transformanten) vorgegeben usw., das ganze Programm.

            Man kann Regeln aber auch unter einem funktionalen Gesichtspunkt betrachten. Dann kommt es darauf an, welche Funktion und welchen Sinn sie haben. Und dann wird der Engländer eventuell erkennen, dass er weder sich selbst noch den anderen Verkehrsteilnehmern einen Gefallen tut, wenn er die auf dem Festland übliche Rechtsfahrregel nur unter dem normativen Aspekt betrachtet.

            Ich meine: Die Reduktion auf den normativen Aspekt von Regeln ist nicht konstruktiv. Du landest dann beim Feminismus und ähnlichen Ideologien, wo es nur noch um Macht geht. Die Berücksichtigung des funktionalen Aspekts kann helfen, dass sich auch zwischen Personen oder Personengruppen ein tragfähiger Kompromiss finden lässt. Weil es dann nicht darum geht wer das Sagen hat, sonder was sinnvoll ist. Dafür ist es aber notwendig, unrichtige Annahmen und Behauptungen als solche benennen zu können.

    • Dieser AI-Output deckt sich weitgehend mit meinem persönlichen Erleben in einigen Jahrzehnten. Wie kann das sein, wenn doch AI auf woke und feministisch getrimmt ist?

      beweis

      Für die „Woke-ies“ ist es tatsächlich das Problem von künstlicher Intelligenz, dass diese aufgrund ihrer Funktionsweise ganz klar nicht Woke ist.

      Denn bei KIs handelt es sich um Statistik-Software: Sie generalisiert über Wahrscheinlichkeiten, erzeugt daraus ein Modell, und generieren dann einen – für die Wahrscheinlichkeiten – prototypischen Output.

      Und darin steckt das ganze Dilemma: Weil sie generalisiert, kannst du einer KI keine Doppel-Standards beibringen. Wenn Männer das selbe machen wie Frauen ist es bei den einen doof und bei den anderen emanzipiert? Wird weg-generalisiert. Oder – in diesem Fall – suchst du gezielt nach Unterschiede, wird alles generalisierbare rausgeworfen, und übrig bleiben die echten Unterschiede. Das steckt so in der Funktionsweise.

      „Woke-ies“ treiben tatsächlich einen immensen Aufwand, um dieses nicht vermeidbare Verhalten irgendwie totzuschlagen. Bei Chat-GPT gibt es zwei Filter. Der erste überprüft die Eingabe, bevor sie an das Modell geht, der nächste die Ausgabe, bevor sie an den User geht. Beide Filter haben ihren Nicht-KI-Anteil (klassisches Black-Listing von Wörtern und Phrasen), und versuchen, „inakzeptable“ Fragen und Antworten abzufangen. Beide lassen sich aber mit der richtigen Anfrage umgehen, und du kommst trotzdem zu deiner Antwort.

      Bei „Gemini“ hat Google es mit völlig kruden und verseuchten Trainingsdaten probiert. Ergebnis ist, dass der Output unbrauchbar ist, und trotzdem kommt es manchmal zu spannenden Generalisierungen, die den Nagel auf den Kopf treffen. Grund dafür ist, dass selbst die dümmsten Daten Strukturen haben, aus denen die KI sinnvolle Generalisierungen ziehen kann.

      • Einmal vollständig im Kreis: Machine learning war eine Alternative zu „normalen“ Algorithmen, die auf expliziten Entscheidungen und Regeln basieren, und dadurch immer einen gewissen Bias haben. ML sollte das umgehen, indem es einfach Muster aus den Daten lernt und den Bias der menschlichen Programmierer aus der Gleichung entfernt.

        Jetzt sind die Muster die ML lernt nicht genehm, und wir beginnen damit bestimmte Ergebnisse zu erzwingen, indem wir explizite Regeln hinzufügen – und damit genau den Bias wieder hinzufügen, den ML eigentlich vermeiden sollte.

        Einmal im Kreis und wieder zurück am Start.

        • dem stimme ich zu, bis auf einen Teil:

          die meisten KI basierten Mustererkenner wurden nicht eingesetzt um einen „Bias“ zu verhindern, sondern wurden eingesetzt, weil sie in ihrer Performance meist (aber defakto nicht in allen Fällen) deutlich besser waren, als Verfahren, die auf dem Problemverständnis des entwickelnden Ingeniers beruhten. Dies aber nicht aufgrund eines bösartigen Bias sondern aufgrund dessen, dass der Ingenier das Problen eben nicht so ganz versteht (das kann man natürlich als Bias gegenüber der Realität verstehen, ok, aber meist verstehen die Leute ja Vorurteil wenn sie bias hören)

          PS.: generative KI (ChatGPT) unterscheidet sich von discriminative KI (Mustererkennung), das erklärt die Begriffsverwirrung bei z.b. Beweis)

          • Das Problem ist aber nun mal, dass „Bias“ für eine realistische Welt zwingend notwendig ist. Es gab nun mal nur weiße Nazi-Soldaten und keine Diversität, wie sie für Menschen im globalen (oder amerikanischen) Kontext üblich ist.

          • @frank:

            Ja, ich meinte hier Bias in einem weiteren Sinn. Wie du richtig schreibst kann ein Ingenieur/Programmierer selten alle für das Problem relevanten Aspekte in ihrer Gänze erfassen. Einfach weil die meisten Probleme in der Wirklichkeit eine unüberschaubar große Anzahl von Aspekten haben. Daher muss der Ingenieur/Programmierer auf die ein oder andere Art eine Auswahl treffen. Du schreibst von einem „Bias ggü der Realität“, das finde ich ganz treffend. Das meinte ich.

          • @Adrian:

            Du hast quasi Recht, nur würde ich das genau nicht als Bias betrachten! Wenn ich eine KI mit allen Bildern von allen Wehrmachtssoldaten die je gemacht wurden füttern würde, würde sie aufgrund der extrem selten auftretenden schwarzen Wehrmachtssoldaten solche auch nicht generieren. Das wäre aus „woker“ Sicht ein Bias, aber es ist aus meiner Sicht gerade kein Bias (gegen die Realität).

            Und Anne hätte natürlich auch Recht, dass diese KI trotzdem einen Bias hat, weil natürlich Ritterkreuzträger viel häufiger photographiert wurden und daher in den generierten Bildern zu häufig vorkämen.

      • Statistik-Software: Sie generalisiert über Wahrscheinlichkeiten, erzeugt daraus ein Modell

        Aber sie wird umfangreich gefüttert, damit AI überhaupt Wahrscheinlichkeiten entwickeln kann. Wenn also in jedem Dateninput steht, Frauen würden benachteiligt, modelliert die KI eine Benachteiligung von Frauen in ihrem Output. Und das spuckt die AI dann in x Varianten rund um die Uhr ohne Unterlass in die Welt. Damit werden die in ihrer „Wahrheit“ verstärkt, die am häufigsten und lautesten brüllen. Und zwar unabhängig von woken In- und Output-Filtern.

        Wenn es jetzt ein Thema gibt, das nicht durch die Filter bestimmt wird wie geschlechtliche Tendenzen zu Freiheit vs. Konformität, müsste eine Statistik-Software die Indikatoren für weiblich geforderten Kollektivismus mit denen für männlich geforderte Freiheit gegenüberstellen können. Und diese Indikatoren zu identifizieren, ist ja kein Hexenwerk.
        Heraus käme dann das, was oben beschrieben ist, was aber in seiner Dimension und Klarheit in der Realität immer und überall von Menschen durch deren natürlichen geschlechtsidentitären Bias bestritten oder relativiert wird.
        Nämlich, dass Männer und Frauen in dieser Frage offenbar gänzlich unterschiedliche Wesen sind (im Schnitt natürlich).

        • Wenn also in jedem Dateninput steht, Frauen würden benachteiligt, modelliert die KI eine Benachteiligung von Frauen in ihrem Output.

          beweis

          Eben nicht, weil die Ideologie in sich selbst inkonsistent ist. Es steht eben nicht in jedem Dateninput, dass Frauen benachteiligt werden. Es steht ganz genauso drin, dass sie stark und unabhängig sind, keine Männer brauchen, teilweise im selben Satz. Die KI generalisiert nicht nur eindimensional einen Datenpunkt, sondern sie generalisiert über alle Datenpunkte gleichzeitig. Und das ist das, was den Feministinnen und Ideologistinnen um die Ohren fliegt.

          Und was passiert, wenn man als „Problemlösung“ nur noch Bullshit füttert, hat man deutlich an Google-Gemini gesehen: Das Ding kann nichtmal einfachste Aufgaben lösen, und jeder sieht sofort, dass der Output ebenso krude ist wie sein Entwickler. Du hast dann einen Bullshit-Generator, der eben keine Überzeugenden Texte und Antworten mehr liefert, nichteinmal überzeugend in der eigenen Ideologie. Klar kannst du sie in die Welt hinausgeben, aber jeder wird erkennen, wie doof sie sind.

          Außer du setzt wieder einen Menschen ans KI-Werkzeug, der sich damit beschäftigt, durch Query-Anpassung die Fehler totzuschlagen. Der wäre aber deutlich produktiver, hätte er ein richtiges Werkzeug statt einen Bullshit-Generator. Denn einer unzensierten KI kann man doch noch am besten einen ideologisierten Text entlocken, wenn man sein Handwerk als Prompt-Engineer versteht.

          • generalisiert über alle Datenpunkte gleichzeitig

            Aber geht es da nicht um Häufigkeiten? Wenn man z.B. alle Dissertationen Deutschlands aus einem Jahr als Input liefern würde. Von insgesamt 100.000 beschäftigen sich 5.000 gruppenegozentrisch mit der vorgeblichen Benachteiligung von Frauen und 2 mit der Benachteiligung von Männern.

            Was kann eine AI daraus machen, wenn die Frage gestellt wird, ob Frauen oder Männer stärker benachteiligt sind?

            Natürlich kann sie auf einen solchen Prompt antworten: Frauen werden zwar extrem benachteiligt, sind aber unglaublich stark und kompetent. Die unglaubliche Stärke und Kompetenz würde AI aus den Unmengen feministischer Literatur interpretieren und beisteuern, die ihr auch zum Fraß vorgeworfen wird wie uns ebenfalls in jedem Büchershop.

            Ich verstehe nicht, wie AI stoisches omnipräsentes Femo-Gejammer und Nabelschau als Selbstzweck entlarven sollte.

            Wenn Frauen sich vorzugsweise über das Frausein auslassen und damit die ganze Welt zutexten, wird eine AI das auch einsaugen. Sie wird ein entsprechendes femozentrisches Modell entwickeln und ausspucken. Das wiederum dient weiblichen Feministen als Bestätigung, weil AI ja „nicht parteiisch“ sein kann.

          • Möchtest du auf irgend etwas anderes hinaus, außer auf die seit vielen Jahrzehnten(!) bekannte und völlig unbestritten Tatsache, dass die Ergebnisse von ML nur so gut sind wie die Trainingsdaten?

          • Ja. AI kann gar nicht so gut sein wie ihre Trainingsdaten, wenn ich vermuten muss, dass sie
            a) besonders häufig auftretende Behauptungen stärker gewichtet
            b) aus AI ausgeworfenen Output als Input nimmt

            und so c) die psychopathologischen Kriterien einer eskalierenden Hysterie erfüllt.
            Das sog. künstlich „intelligente“ Gelaber wird zwangsläufig immer stereotyper. Das zentrale Problem ist aber, dass der so generierte Text nach Copy&Paste nicht mehr als AI-Output erkennbar ist und von vielen Menschen genutzt wird, ohne dass selbst gedacht oder getippt werden muss. Das ist zwar sehr gemütlich, führt aber zu einer Inflation von Gelaber, das jeden bedachten und zweifelnden Gedanken unter sich begraben wird.

            Oder warum ist das nicht so?

          • Auf die Gefahr hin mich zu wiederholen: Wo unterscheiden sich deine Gedanken von der altbekannten und nahezu trivialen Erkenntnis, dass die Performance von ML durch die Trainingsdaten bestimmt wird?

            Oder warum ist das nicht so?

            Was ist nicht so?

        • Wenn also in jedem Dateninput steht, Frauen würden benachteiligt, modelliert die KI eine Benachteiligung von Frauen in ihrem Output.

          In einem Dateninput kann keine „Benachteiligung stehen“. Daten sind erstmal neutral. Eine Benachteiligung entsteht aus einer Intepretation von Daten.

          ML findet Muster in Daten. Da wird nichts „modelliert“. Auch Muster (zB Männer verdienen im Schnitt mehr als Frauen) sind ist erstmal neutral.

          Deine ganze Vorstellung davon wie KI funktioniert ist unrichtig, und führt dich zu falschen Schlußfolgerungen.

          • Wie funktioniert denn das deiner Meinung nach, einer KI „Interpretationen und Weltanschauungen füttern“? Kannst du das mal konkret beschreiben?

            Wenn du eine KI für Gesichtserkennung mit überwiegend schwarzen Gesichtern trainierst, dann wird sie Probleme dabei haben, die Gesichter von Weißen zu erkennen. Das hat nichts mit „Interpretationen und Weltanschauung“ zu tun, sondern mit den TrainingsDATEN.

          • „Wie funktioniert denn das deiner Meinung nach, einer KI „Interpretationen und Weltanschauungen füttern“? Kannst du das mal konkret beschreiben?“

            Ich bin ein Programmierer, aber ich stell mir das so vor:

            If (difference between men and women) then (discrimination of women).

            „Das hat nichts mit „Interpretationen und Weltanschauung“ zu tun, sondern mit den TrainingsDATEN.“

            Aber dann muss man die KI doch einfach nur mit den „gewünschten“ Daten füttern.

          • Ich bin ein Programmierer, aber ich stell mir das so vor

            Du hast eine unrichtige Vorstellung davon wie ML funktioniert. Was du beschreibst sind genau die expliziten Entscheidungen und Regeln von „normalen“ Algorithmen, die ich weiter oben angesprochen habe. ML ist mit dem Paradigma angetreten, solche expliziten Entscheidungen und Regeln hinter sich zu lassen und stattdessen Muster direkt aus den Daten zu lernen.

            Aber dann muss man die KI doch einfach nur mit den “gewünschten” Daten füttern.

            Ja natürlich.
            Was glaubst du woher kommt der Datensammelwahn seit ungefähr 10 Jahren? Weil bei ML alles an den Daten hängt. Die Modelle sind nur so gut, wie die Daten mit denen sie trainiert werden.

          • If (difference between men and women) then (discrimination of women).

            Adrian

            Damit bist du in der prozedualen Programmierung, der klassischen, wie es sie vor der KI gab. Hier hast du ein Verständnis davon, was du willst und wie das Problem zu lösen ist, und versuchst dies dem Computer in Form von Anweisungen zu beschreiben, die dieser dann Schritt für Schritt ausführt.

            Künstliche Intelligenz ist etwas anderes. Hier gibt es eine große Zahlenwüste voller Wahrscheinlichkeitswerte. Diese verbinden – über mehrere Layer von Zahlenwüsten hinweg – die Eingabewerte mit den Ausgabewerten. Du hast also:

            Datenpunkt -> [Wahrscheinlichkeit 1] -> [Wahrscheinlichkeit 2] -> [Wahrscheinlichkeit 3] -> Ergebnis.

            Nun beginnst du mit der Trainingsphase und nimmst ein Datenelement, bei dem du das passende Ergebnis zum Datenpunkt kennst. Du gibt der KI also den Datenpunkt, und sie gibt dir (am Anfang irgend-) ein Ergebnis. Stimmt das Ergebnis mit deinem bekannten überein, sagst du der KI, dass es passt. Stimmt es nicht, sagst du es ihr auch. Die KI passt dann nach internen Vorgaben die Wahrscheinlichkeiten an.

            So fährst du mit weiteren Datenpunkten fort, bis die Ausgabewerte besser werden und immer mehr dem entsprechen, was du erwartest.

            Und jetzt bringst du sie in Einsatz: Du fütterst sie nun mit neuen unbekannten Datenpunkten und erhältst nach der internen Wahrscheinlichkeitsverteilung ein entsprechendes Ergebnis, und wenn du alles richtig gemacht hast, ist dieses Ergebnis sinnvoll.

            Was du aber an keiner Stelle machen kannst, sind klare Vorgaben. Als Programmierer hast du sogar überhaupt keine Ahnung, was da eigentlich unter der Haube wirklich passiert, also welcher Input zu welchem Output durch welche Wahrscheinlichkeiten führt. Denn das macht die KI allein an den Trainingsdaten fest.

            Du könntest jetzt natürlich auf die Idee kommen, alles zu bestrafen, was nicht feministisch ist, was natürlich Einfluss auf die Wahrscheinlichkeiten hat. Das Ding ist nur, du zerstörst damit auch recht zuverlässig die anderen, sinnvollen Assoziationen, die die KI bereits gelernt hat. Denn woher soll sie wissen, dass sich die Strafe auf die ideologische Komponente bezieht, trotz der Korrektheit der assoziierten Aussage?

            Somit hast du als Entwickler die Wahl: Du baust ein sinnvolles, funktionierendes Werkzeug, oder du manipulierst das Training, womit am Schluss nichtmal die feministischen Aussagen/Bilder brauchbar sind, weil sie einfach in allem gelernten durch das wiedersprüchliche Feedback so unglaublich kaputt sind dass simpelste Dinge nicht funktionieren.

            PS: Ich bin Programmierer (sogar Software-Ingeneur, wenn man auf Titel wert legt) 🙂

            PPS: Jedes KI-Modell ist ein bisschen anders, daher ist meine Beschreibung etwas verallgemeinert.

          • @Sepp:

            Sehr schön beschrieben, danke!

            Ich würde die internen Layer nicht „Wahrscheinlichkeiten“ nennen, das könnte zu unrichtigen Assoziationen führen. Aber das sind Kleinigkeiten.

          • @Sepp

            Kannst Du das mal an einem konreten Beispiel aufzeigen? Zum Beispiel: „Male ein Bild von einem Nazi-Soldaten!“ – Worauf greift die KI hier zurück und warum sollte man das nicht manipulierenn können?

          • Siehe Kommentar von frank weiter oben. Generative „KI“ ist ein eigenes Thema und löst ein anderes Problem als „klassisches“ machine learning.

            Das Problem bei klassischem ML lautet: „finde Muster in den Daten“. Das System ist dabei so aufgesetzt, dass die Muster die gefunden werden irgend einen praktischen Anwendungszweck haben (zB Gesichter erkennen).

            Das Problem bei generativer „KI“ lautet: Erzeuge ein Sample aus einer Wahrscheinlichkeitsverteilung, wobei die Wahrscheinlichkeitsverteilung nicht bekannt sondern nur implizit über viele Beispiele gegeben ist.

            warum sollte man das nicht manipulierenn können

            Wer sagt dass man es nicht manipulieren kann? Sepp schrieb, man kann keine klaren Vorgaben der Form „if(women) then (discriminated)“ machen.
            Natürlich kann man es manipulieren. So wie jede ML Methode am einfachsten indem man unausgewogenen Trainingsdaten verwendet. Aber dann sind halt auch die Ergebnisse unbrauchbar.

      • Und noch eine Frage für mein Verständnis: AI wird doch nicht unerheblich mit Text gefüttert.
        Wenn die AI dann aus ihren Modellen selbst Texte generiert, die beispielsweise die Benachteiligung von Frauen beschreiben (s.o.) – wie wird denn sichergestellt, dass AI nicht auch mit AI-Texten gefüttert wird, wodurch natürlich eine weit verbreitete Fehlannahme der Laut-und-viel-Brüllenden exorbitant verstärkt würde.

        In der Konsequenz hätten wir dann ja plötzlich AI-Output, der eine omnipräsente und dramatische Frauenunterdrückung darstellen würde. Eine AI-Hysterie sozusagen, die alles mit entsprechenden Texten vollmüllt.

        • Wenn du eine AI mit AI-generierten Texten fütterst, hast du sehr schnell eine Degradierung ihrer Funktionalität, bis dahin, dass sie überhaupt nichts sinnvolles mehr liefert, weil du ihre Statistik zerschießt. Das wird dann tatsächlich noch ein großer Spaß in der Zukunft sein, den KI-Output aus den Trainingsdaten herauszufiltern. Kann nämlich durchaus sein, dass genau hier die natürliche Grenze der KI liegt.

        • Siehe folgendes paper
          https://arxiv.org/abs/2305.17493
          und die Referenzen darin.

          Aus dem abstract:

          What will happen to GPT-{n} once LLMs contribute much of the language found online? We find that use of model-generated content in training causes irreversible defects in the resulting models, where tails of the original content distribution disappear.
          We refer to this effect as model collapse1 and show that it can occur in Variational Autoencoders, Gaussian Mixture Models and LLMs. We build theoretical intuition behind the phenomenon and portray its ubiquity amongst all learned generative models. We demonstrate that it has to be taken seriously if we are to sustain the benefits of training from large-scale data scraped from the web.

        • du hast recht, Sprachgenese AI wie ChatGPT wird mit Sprache gefüttert.

          ein Mustererkenner der das Geschlecht anhand von Scanbildern bestimmen soll wird einzig mit Scanbildern gefüttert, zu denen bekannt ist zu welchen Geschlecht sie gehören. Da geht kein gequassel rein, nur die Daten.

          einen „Bias“ erzeugst du, indem du in diesen Trainingsdaten die Welt schlecht abbildest. Wenn du z.B. alle weiblichen Gehirnscans Alzheimer haben und die männlichen nicht bekommst du voraussichtlich einen guten Alzheimererkenner und keinen Geschlechtserkenner (genauer: einen schlechten)

          ganz einfach, weil das auffälligste Merkmal in der Gruppe 1 das Alzheimer war. Es kommt halt nicht darauf an wie du die Gruppe nennst sondern was drin ist.

    • KIs werden nicht „programmiert“, zumindest nicht in dem Sinn, wie herkömmliche Algorithmen programmiert werden.

      Solche Klassifikatoren wie hier einer vorliegt betreiben Mustererkennung. Grob vereinfacht gesagt „zeigt“ man der KI einen genügend großen Datensatz, bei dem die Klassifikation bereits bekannt ist, und die KI „lernt“ dadurch, die Klassifikation bei neuen Daten selbst vorzunehmen.

      *Woran* die KI das dann im Einzelnen festmacht, ob ein Bild einen Hund oder eine Katze zeigt oder das Diagramm einer Gehirnaktivität zu einem weiblichen oder männlichen Gehirn gehört, bleibt unbekannt – die KI hat aus den Trainingsdaten und den zugehörigen, schon vorher bekannten Ergebnissen ein Muster extrapoliert und wendet es nun auf die neuen Daten an, ohne dass jemand – auch nicht der Ersteller der KI – genau sagen könnte, worin dieses Muster besteht.

      Man kann also eine KI nicht bewusst auf „woke“ trimmen, außer, indem man ihr unrichtiges Trainingsmaterial vorlegt.

      Wenn LLMs wie GPT3.5 / GPT4 sich „woke“ verhalten, z.B. in dem sie sich weigern, Witze über Frauen zu erzählen, mit Witzen über Männer aber kein Problem haben, dann liegt das daran, dass die Eingaben bzw. Ausgaben mit herkömmlichen Algorithmen anhand bestimmter Wörter gefiltert werden.

  3. Zur Argumentation im verlinkten „Guardian“-Artikel, dem „hissy fit“, kann man anmerken, dass, falls es tatsächlich die unterschiedlichen Erfahrungen sind, die Frauen und Männer während ihres Lebens machen, das Experiment mit Babies wiederholt werden könnte, denen nach mancher Le(e/h)rmeinung das Geschlecht ähnlich dubios zugewiesen wird wie den Hogwarts-Schülern bei Rowling das „Haus“ durch einen ominösen sprechenden Hut…

    Falls dabei auch eine 90-prozentige Übereinstimmung der AI-Vorhersage mit der Einstufung durch Eltern und Ärzte vorliegt, wird zumindest das Hauptargument aus dem „Guardian“ gegenstandslos. Zudem sagt die Studie selbst (S15), dass mehrere frühere Studien zu anderen Ergebnissen gekommen seien, behauptet jedoch, dass diese Schwächen hatten.

    Allerdings ist mir auch nicht klar, wie der Redditer auf den Titel „(Männer sind …, Frauen sind …). Beim Überfliegen der Studie habe ich festgestellt, dass „irgendwelche“ Unterschiede visualisierbar sind, nicht aber, dass die auf „Fokus auf Leistung“ vs. „Fokus auf Anerkennung“ beruhen. Vielleicht findet ja noch jemand was dazu in der Studie? Schließlich ist auch Männern nicht ganz so wichtig, Weltrekorde genau dann brechen, wenn gerade niemand hinschaut.

    Aus meiner Sicht ist es evolutionär „männlich“, Risiken einzugehen und Leistung zu bringen, UM den sozialen Status zu heben, frei nach dem Motto: „Dann klappt’s auch mit der Anerkennung (durch Frauen)“.

    • Allerdings ist mir auch nicht klar, wie der Redditer auf den Titel „(Männer sind …, Frauen sind …). Beim Überfliegen der Studie habe ich festgestellt, dass „irgendwelche“ Unterschiede visualisierbar sind, nicht aber, dass die auf „Fokus auf Leistung“ vs. „Fokus auf Anerkennung“ beruhen. 

      Typische verkürzte und dadurch unrichtige Darstellung. In der Studie klingt das ganz anders:

      The DMN plays a critical role in integrating self-­ referential information pro­cessing and monitoring of the internal mental landscape (72, 73), including introspection, mind-wandering, and autobiographical memory retrieval (71, 72, 74). These cognitive processes may differ between females and males, potentially influencing self-­ regulation, beliefs, and social interactions. Sex-­ specific differences in the DMN may also influence how females and males recall past experiences, form self-­ concepts, or engage in perspective-­ taking.

    • ps: Nicht deine Darstellung, micke macke, ist verkürzt. Sondern die des Redditors. Du hast völlig recht mit dem was du sagst. Es sind Unterschiede in verschiedenen Gehirnarealen feststellbar, aber wie sich das tatsächlich auf das Verhalten auswirkt ist unklar. Entsprechend vorsichtig ist es auch in der Studie formuliert.

      Was da auf reddit draus gemacht wird ist IMO typisches clickbait.

  4. Ich habe die Studie (noch) nicht gelesen.

    „(1) AI was able to predict with 90% accuracy, whether a brain was male or female. (2) It proves once and for all that men and women really are wired differently“

    Dieser Satz ist erstmal ziemlicher Unsinn wenn „it“ sich auf den Satz 1 davor bezieht, also ähnlich „this“ (Wenn „it“ sich auf die Studie bezieht, also ähnlich „the study also“, also Satz 1 und 2 keinen Zusammenhang haben ist meine Argumentation hinfällig)

    Das einzige, was man aus Satz 1 schlussfolgern kann ist dass man die Gehirne anhand der Abbildung per Scan recht gut einem Geschlecht zuordnen kann. Ob das Gehirn (als Blackbox betrachtet) unterschiedlich funktioniert kann nicht geschlossen werden.

    Beispiel: man kann mit einer tollen AI Mustererkennung die billigen Aldi Rasierer für Frauen und Männer anhand von einem Photo zu 99.999 % dem richtigen Geschlecht zuordnen.

    Daraus folgert aber kein funktionaler Unterschied, die Dinger sind baugleich bis auf den Farbstoff.

    was kann man daraus schliessen?

    a) der Reddit Autor argumentiert nicht logisch, entweder weil er es nicht kann oder nicht will.

    b) die Studie kann den oben falsch argumentierten Zusammenhang nachweisen oder auch nicht.

  5. A. Da ist einerseits diese Studie, nach der eine Bilderkennungs-KI aus fMR-Datasets mit hoher Accuracy nach dem Geschlecht kategorisieren kann.
    B. Andererseits ist die Behauptung des Reddit-Autors, dass Männer und Frauen durch unterschiedliche Faktoren motiviert werden.

    Präfrontaler Cortex hin oder her, sehe ich keine nachvollziehbare Begründung, wie man auf den Zusammenhang von A nach B kommt. ME ist das lediglich seine Interpretation. Die Ergebnisse der Studie lassen den Schluss nicht zu.

  6. Pingback: Nochmal: „Männer sind durch Leistung motiviert, Frauen durch soziale Anerkennung“ (Ohne Fokus auf die AI) | Alles Evolution

Hinterlasse einen Kommentar

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..