Ich habe ChatGPT gefragt…

Ich habe ChatGPT gefragt: „Stell Dir vor, Du wärest im Jahre 1300. Was hättest Du damals auf diese Frage geantwortet: Ist die Erde eine Scheibe oder eine Kugel?"

Das Ding antwortete: „Im Jahre 1300 war die gängige Vorstellung, dass die Erde eine Scheibe sei. Diese Ansicht basierte auf religiösen Überzeugungen und dem begrenzten Wissen über die Welt zu dieser Zeit. Die Idee einer kugelförmigen Erde war zwar bereits von einigen antiken Philosophen wie Pythagoras und Aristoteles vorgeschlagen worden, aber sie hatte sich noch nicht weit verbreitet. Daher hätte ich wahrscheinlich geantwortet, dass die Erde eine Scheibe ist."

Immerhin ehrlich, die Antwort: Das Ding tut also nichts weiter als nach statistischen Gesichtspunkten Wissen zu akkumulieren. Das ist keine besonders „intelligente" Tätigkeit, würde ich sagen.

Intelligenz – was ist das eigentlich?

Darüber wurden schon viele Bücher geschrieben – mehr oder weniger intelligente.

Ein schlüssige Antwort auf die Frage habe ich auch nicht. Aber ein wichtiges Kennzeichen wirklicher Intelligenz scheint mir die Fähigkeit zur (freien) Assoziation zu sein.

In einem normalen Rechner/PC geschieht folgendes: Nach einem bestimmten Schema werden unter bestimmten Speicher-Adressen bestimmte Daten (Wissens-Bausteine) abgerufen und mit anderem Wissen verknüpft/verarbeitet/verrechnet. Das kann ein Rechner heutzutage besonders schnell. Und weil er das so schnell kann, erscheint er uns als besonders leistungsfähig. Er kann uns auch bestimmte Zusammenhänge aufzeigen, aber immer nur im Rahmen dessen, was zuvor programmiert wurde.

Wenn wir in dem mechanistischen Bild eines Rechners/PCs bleiben, dann wäre Assoziation folgendes: Bestimmtes Wissen/Daten wird unmittelbar zu einem Teil der Adressierung. Damit wird auf anderes Wissen zugegriffen, das so eben nicht nach einem vorgegebenen Schema adressiert wird. Auf was zugegriffen wird, hängt von dem initialen Wissen ab, aber eben nicht von einem vorher festgelegten Algorithmus.

Das Bild ist viel zu einfach, um das Wesen der (freien) Assoziation wirklich zu erfassen. Aber ich denke, es zeigt einen wichtigen Unterschied zur herkömmlichen Datenverarbeitung auf.

In den Anfängen der Computerei gab es mal „Assoziativspeicher" und entsprechende Rechnersysteme, aber die waren für den normalen Einsatz technisch viel zu komplex.

ChatGPT, die Ikone der „KI", hat in diesem Sinne mit Intelligenz nichts zu tun. Das, was mit „KI" bezeichnet wird, ist lediglich ein elaborierter Lernprozess etwa mittels „neuronaler Netze" auf Basis von Massendaten. In der Antwort des Dings (siehe oben) wird das auch deutlich: Das Internet als riesiger Speicher von Informationen/Daten dient als Grundlage dafür, bestehendes Wissen anzuhäufen. Dabei wird keine Begutachtung vorgenommen mit einer Ausnahme: Als „wahr" gelten die Informationen, die häufig anzutreffen sind.

Und das ist eben auch der Grund dafür, warum ChatGPT die Erde vor einigen hundert Jahren für eine Scheibe gehalten hätte. Und deshalb hat sich das Ding auch vehement für die Covid-Impfung ausgesprochen – siehe „ChatGPT – die Impfstoffe sind sicher!“. Intelligent ist das nicht… Siehe z.B. auch: „Wie schlau ist KI beim Thema Klima?

Und noch etwas – ich springe: Da der Mensch zuallererst ein gesellschaftliches Wesen ist, hat (freie) Assoziation sicher auch etwas mit „sozialer Kompetenz" zu tun (mir fällt gerade kein besserer Ausdruck ein). Daher dürften diejenigen, die die Gesellschaft warum auch immer als feindlich ansehen, die schwere emotionale Defizite aufweisen, wie etwa die von emotioneller Pest Befallenen, vermutlich eher unterdurchschnittliche Fähigkeiten zur (freien) Assoziation haben. Damit fehlt ihnen dann auch ein wesentliches Merkmal von Intelligenz – siehe ausgewählte Figuren in Berlin und anderswo.

Anmerkung:
Ich habe das Thema „ChatGPT" nur grob angerissen. „Künstliche Intelligenz" wird uns noch auf vielen Ebenen beschäftigen. Was denken Sie dazu?

Nachtrag:
(3.8.23) „KI“ erfüllt auf jeden Fall einen karitativen Zweck. „Influencer können nicht so einfach mit KI ersetzt werden, aber ihre Follower können es." Das schreibt diese Quelle, die folgendes ermittelt hat:
Amine Gülşe, Frau von Mesut Özil, verdient mit Fake-Followern das meiste Geld, schätzungsweise 1.302 Euro pro Post. Izabel Goulart, Partnerin von Kevin Trapp, liegt auf Platz 2 (1215,74 Euro) mit der höchsten Anzahl an Followern auf der Liste (4,5 Mio.). Ann-Kathrin Götze, Ehefrau von Mario Götze, liegt auf Platz 3 (1079,41 Euro) und hat mit 40,8% den höchsten Anteil an Fake-Followern im Ranking.

(21.8.23) Wenn ChatGPT erst einmal von den Suchmaschinen-Betreibern ausgiebig eingesetzt und von den Benutzern massenhaft genutzt wird, wird es sich automatisch als hervorragendes Zensurinstrument erweisen. Weil es nur das als „Wahrheit" verkündet, was massenhaft im Internet erscheint. Also ist die Erde eine Scheibe und die mRNA-Verabreichungen haben die Welt gerettet… Sicher bietet das Programm auch noch genügend „Stellschrauben" zum Fine-Tuning, so dass es flexibel auf neue Umstände angepasst werden kann.

Das könnte Sie auch interessieren:

Bewertung: 3.0/5
Please wait...
blank