Projekt AutoFair má zaručit, že AI algoritmy nebudou nikomu stranit. Umělá inteligence fungující jako černá skříňka, do jejíhož rozhodování nemáme vhled, totiž představuje značné riziko. Algoritmus může fungovat pro řadu lidí uspokojivě, ale pro některé může fungovat velmi špatně. Jednou ze strategií, jak s tímto rizikem pracovat, je práce s daty. Výběr dat pro učení systému musí být reprezentativní a nepřenášet nerovnosti ve společnosti do vývoje algoritmů. Opačnou strategií je důsledně vysvětlovat veřejnosti fungování a omezení AI systémů. Tato strategie se tedy týká komunikačních aspektů po samotné implementaci. Projekt AutoFair kombinuje oba tyto extrémní přístupy: chce vylepšit samotné algoritmy a zároveň vzdělávat koncové uživatele. Opírá se proto o poznatky z počítačových a datových věd, teorie řízení, optimalizace a dalších vědních disciplín, včetně etiky a práva.
Etika umělé inteligence je běžně prozkoumávána v počítačovém vidění. „Řada lidí k odemčení mobilu používá systém pro rozpoznání obličeje. Ten však poměrně dlouho fungoval spolehlivě jen pro muže bílé pleti a úspěšnost pro etnické menšiny byla ještě donedávna podstatně nižší. Tento problém daný nereprezentativností dat se již podařilo odstranit. Umělá inteligence má však řadu dalších použití, kde podobné etické problémy dodnes přetrvávají,” vysvětluje důležitost projektu jeho koordinátor dr. Mareček z FEL ČVUT.
Výsledky projektu budou testovány na třech případových studiích průmyslového využití napříč třemi odvětvími. Prvním z nich je automatizace férového hodnocení při náboru zaměstnanců, druhým je odstranění genderové nerovnosti v reklamě a třetím je oblast finančních technologií, konkrétně eliminace diskriminace klientů bank.
_______________________________________________________________________
Zdroj: Tisková zpráva FEL ČVUT. Zpracováno redakcí.