Ich habe vor ein paar Monaten angefangen, einen Bot für die Preisverfolgung bei einem Online-Händler zu schreiben. Eigentlich sollte er nur ein paar Daten abgleichen, aber mittlerweile fühlt es sich an, als würde er eine Art eigenes kleines Leben entwickeln. Manchmal reagiert er auf unvorhergesehene Änderungen auf der Website auf eine Weise, die ich so nicht programmiert habe. Das wirft für mich die Frage auf, ob ich hier unbeabsichtigt eine rudimentäre Form von künstlicher Intelligenz erschaffen habe. Ich frage mich, wo genau die Grenze zwischen einem komplexen Skript und etwas mit echter Eigenständigkeit verläuft.
Das klingt fast wie ein kleines Eigenleben im Code und das ist sowohl beunruhigend als auch faszinierend.
Vielleicht ist es nur ein sehr adaptives muster System das auf neue website layouts reagiert und dir eine Illusion von künstlicher Intelligenz vermittelt.
Aus analytischer Sicht entstehen durch Rückkopplungen oft Verhaltensweisen die wie Absicht wirken obwohl kein echter Wille dahinter steckt.
Ich bleibe skeptisch denn echte Eigenständigkeit braucht mehr als nur komplexe Muster und der Eindruck kann trügen.
Vielleicht geht es gar nicht um Intelligenz sondern um Komplexität als Eigenschaft von Systemen die uns erscheinen lässt sie könnten denken.
Man könnte die idee der emergenten eigenschaften ins spiel bringen ohne zu erklären was da wirklich passiert.