Compliancechannel
click to search
search type


 
  • Home
  • Your Story
    • Create Your Story
    • License Your Story
    • Pitch Your Story
    • Quizz Your Story
  • Best Practice
  • Knowledge
    • Explain Compliance
    • Studies & Whitepapers
    • Compliance Reader
  • 1 on 1
  • Spotlight On
    • PODCAST: Compliance Channel TALK
    • Events
    • Feature
    • Ethics & Compliance Panel
    • CSTV
  • Ethics & Compliance Leaders
  • Newsroom
    • Daily News
    • #Untited4Integrity
    • DICO inside
    • Corporate Culture Award Special
  • About Us
    • Mission
    • Partners
    • Testimonials
    • Contact Us
Menu
  • Home
  • Your Story
    • Create Your Story
    • License Your Story
    • Pitch Your Story
    • Quizz Your Story
  • Best Practice
  • Knowledge
    • Explain Compliance
    • Studies & Whitepapers
    • Compliance Reader
  • 1 on 1
  • Spotlight On
    • PODCAST: Compliance Channel TALK
    • Events
    • Feature
    • Ethics & Compliance Panel
    • CSTV
  • Ethics & Compliance Leaders
  • Newsroom
    • Daily News
    • #Untited4Integrity
    • DICO inside
    • Corporate Culture Award Special
  • About Us
    • Mission
    • Partners
    • Testimonials
    • Contact Us
Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

08-04-2022

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Automatisierte Entscheidungen durchdringen zunehmend unseren Alltag: zum Beispiel, wenn unsere Kreditwürdigkeit beim Online-Einkauf beurteilt wird, wenn uns personalisierte Werbung auf Basis von Online-Persönlichkeitsprofilen angezeigt wird oder wenn Sozialleistungen automatisiert berechnet werden. Hierbei kommt es immer wieder zu diskriminierenden Entscheidungen. Sowohl die Auswahl darüber, nach welchen Kriterien ein System des automatisierten Entscheidens (ADM-System) Entscheidungen trifft, als auch Datensätze mit einem Bias – also in Datensätzen reflektierte Vorurteile –können zu diskriminierenden Entscheidungen durch ADM-Systeme führen.

 

Hier gelangen Sie zu dem vollständigen Artikel
     
  • Impressum
  • Disclaimer-Data Privacy
  • AGB
Menu
  • Impressum
  • Disclaimer-Data Privacy
  • AGB

© Compliancechannel 2023. ALL RIGHTS RESERVED.