- Napište nám
- Kontakty
- Reklama
- VOP
- Osobní údaje
- Nastavení soukromí
- Cookies
- AV služby
- Kariéra
- Předplatné MF DNES
To je zas diskuze. Nejhlasitější bijci proti korektnosti jsou od reality stejně daleko jako hyperkorektní proud, který kritizují. AI prostě jede podle podle svého nastavení a pokud nezná kontext, tak může klidně převzít setrvačnost a předsudky prostředí, ve kterém operuje. U ženy z muslimské země se bude pozastavovat nad její snahou získat lepší vzdělání, čechovi nabídne podle zvyklosti ve stejné firmě, lokalitě a profesi hůře placenou práci než němcovi a od člena etnika, který byl vystěhován do chudších oblastí, kde měla jeho rodina horší startovní pozici, bude očekávat méně.
Pokud se ovsem jednalo o bankovni data, kde se resil kredit klienta, tedy rekneme neco jako bonita klienta, a dostavaji stejna data a proste urcite skupiny at uz rozdilne rasove, dle pohlavi ci nabozentsvi, proste maji v prumeru horsi bonitu, tak prece system neni rasisticky tomu je to asi uplne jedno. Proste je vyhodi vystupni data jak to je. To ze se nejake spolecnosti nelibi, ze horsi statistiky maji jine nabozenske skupiny od jinych nebo ruzna pohlavi, tak to je sice smutne, ale nic by se s tim nemelo delat a smirit se s tim, ze tak to proste je, nebo resi to tak, ze jim to teda umele navysime, aby to nebylo diskriminacni, zacnete tim diskriminovat tu druhou stranu. Proste je treba veci brat tak jak sou.
Finanční institutce do testovacího provozunasadila systém využívající strojové učení, který určoval kreditní skóre jednotlivých klientů. No a tento systém začal postupně některé klienty prokazatelně diskriminovat - na základě pohlaví, náboženství a rasy............................. a největší fór by, že do systému informace o pohlaví, náboženství a rase vůbec nikdo nevložil
Práce bude pořád dost i když tu bude umělá inteligence.
Stroj zacal prokazatelne diskriminovat? Takze zacal cernochum a muslimum davat prilis nizke kreditni skore, a jasne se prokazalo, ze cernoch se stejnym kreditnim skore jako beloch ma ve skutecnosti lepsi platebni moralku? Nebo proste maji cernosi horsi platebni moralku? To ale neni zadna diskriminace, pokud je to proste fakt!
problém je, že i pokud se ukáže, že více černochů než bělochů má horší platební morálku, tak pokud se rozhodnete, že černochům budete dávat "preventivně" horší úvěry, "protože seš černej voe", tak je to považováno za diskriminaci. A je to tak správně. Černoch nemůže za to, že někteří další černoši neplatí a neměly by pro něj automaticky platit horší podmínky.
Hlavní překážkou UI byl, je a dlouho bude výpočetní výkon. Většina úloh je NP-těžkých. Takže současné počítače nemají v principu šanci.
No možná je to tím, že programátoři velmi často používají funkci generování náhodných čísel...
No tak každá umělá inteligence se řídí instrukcemi. Je otázkou tedy kdo a jak tam ty instrukce či podmínky zapsal. ...
Jinak chápu, že to "nelze" zjistit, protože procesory zvádají miliardy operací za milisekundu, zatímco člověk možná ani ne jednu...Takže to fakt nezjistíme.
No to právě tak není, že by se rozhodovala podle instrukcí.
Ani rychlost není to zásadní. Ten problém je, ža ta informace v neuronové síti není. Samozřejmě by šlo zjistit, jak se který neuron přepnul, ale nelze dobře zjistit, proč. Musel by se zopakovat celý proces učení se stejnými daty, což je prakticky neuskutečnitelné.
Samozřejmě, jak už tu bylo zmíněno, se řada firem snaží o implementaci nějaké diagnostiky. Ale asi nikdy to nebude stoprocentní.
Ke čtení článku doporučuji pustit si trochu tématické hudby:
Diskriminace je v pořádku, tu si různá etnika zasloužila sama. Závažnější problém je úplně jinde a to rozhodování v kritických situacích kdy jde o zdraví. Samořídící automobil může mít v případě kolize např. dvě možnosti a již v okamžiku rozhodování může předjímat, že varianta jedna zachrání posádku ale způsobí zranění jiným lidem, nebo to bude naopak. Kdo nastaví priority a kdo za ně bude trestně zodpovědný ?
Nebo vám AI řekne, že je nutné do 24 hodin odpálit jaderné rakety na Koreu a zaboha vám neřekne proč :) A vy víte akorát to, že měla k dispozici všechny informace světa a je "chytřejší než vy". Poslechnete, neposlechnete... Co když na základě zjištěných informací naopak začla fandit korejcům a je to blaf?
Budou inteligentní stroje, nebudou potřeba inteligentní lidi. Teď už chápu proč už v předstihu z nás dělají blbce.