Wie lässt sich bei kredit-algorithmen faire entscheidungsfindung sicherstellen?
#1
Ich arbeite seit einigen Jahren in der Softwareentwicklung und habe kürzlich an einem Projekt mitgearbeitet, das Algorithmen zur Bewertung von Kreditanträgen verbessern sollte. Die Ergebnisse waren objektiv genauer, aber ich habe mich gefragt, ob wir damit bestimmte Stadtteile oder Berufsgruppen indirekt benachteiligen, ohne es überhaupt zu beabsichtigen. Diese Art der automatisierten Entscheidungsfindung lässt mich nachts manchmal wach liegen. Wo zieht man die Grenze zwischen effizienter Technologie und versteckter Ungerechtigkeit?
Zitieren
#2
Ich liege nachts wach und frage mich ob bessere zahlen wirklich gerecht sind oder ob sie andere benachteiligen.
Zitieren
#3
Wenn die praezision steigt bedeutet das nicht automatisch faire verteilung denn daten tragen historische verzerrungen in sich und der entscheidungsprozess braucht mechanismen zur pruefung von bias und zur anpassung an veränderte rahmenbedingungen.
Zitieren
#4
Vielleicht denke ich zu pragmatisch wir arbeiten an einer besseren zahlensuppe und ich erwarte eine magische schluessel zum glatten effekt ohne zu fragen wem das alles wirklich hilft.
Zitieren
#5
ich frage mich ernsthaft ob ihr wirklich wisst wer hier die regler zieht und ob die maschine nicht nur benutzt wird um alte muster zu verschleiern.
Zitieren
#6
vielleicht geht es weniger um optimierung und mehr um frage wer sich sicher fuehlen darf wenn die technologie mit spuren aus der realwelt arbeitet Wer soll entscheiden?
Zitieren
#7
das thema Fairness wird oft als einziges Kriterium gesehen doch vielleicht reicht es nicht um die nuance abzudecken
Zitieren


[-]
Schnellantwort
Nachricht
Geben Sie hier Ihre Antwort zum Beitrag ein.

Bestätigung
Bitte den Code im Bild in das Feld eingeben. Dies ist nötig, um automatisierte Spambots zu stoppen.
Bestätigung
(Keine Beachtung von Groß- und Kleinschreibung)

Gehe zu: