Ich arbeite seit ein paar Jahren in der Softwareentwicklung und habe kürzlich an einem Projekt mitgearbeitet, das automatisierte Bewertungen für Bewerbungsunterlagen erstellt. Die Logik dahinter schien sauber, aber als ich mir die Ergebnisse ansah, hatte ich plötzlich dieses ungute Gefühl. Irgendwie fühlte es sich falsch an, dass ein Algorithmus über Chancen entscheidet, die so viel mit persönlichen Lebensläufen zu tun haben. Ich frage mich, ob andere auch schon mal so eine Art von kognitiver Dissonanz gespürt haben, wenn Technologie auf menschliche Entscheidungen trifft.
Ja das kenne ich auch. Wenn eine Maschine über Chancen entscheidet die so eng mit dem eigenen Lebenslauf verknüpft sind spürt man eine kognitive Dissonanz und fragt sich wie fair so eine Bewertung eigentlich sein kann
Aus analytischer Sicht zeigt sich hier ein Spannungsfeld zwischen predictiven Modellen und der komplexen Biographie von Menschen deren Entscheidungen nicht auf Zahlen allein reduziert werden sollten
Vielleicht interpretiere ich die Sache falsch und sehe eine Absicht hinter dem Algorithmus, dabei geht es doch meist um Wahrscheinlichkeiten statt um Absicht
Führt das nicht eher zu einer Debatte darüber wer Verantwortung trägt, wenn ein Fehler passiert?
Vielleicht lohnt es sich die Perspektive zu wechseln und zu fragen welche neue Ethikfiguren entstehen wenn Maschinen Entscheidungen über Menschen treffen
Ich bleibe skeptisch ob aus Lebenslaufdaten verlässlich Rückschlüsse gezogen werden können insbesondere wenn Bias und Kontext fehlen