Otázky, co je v této oblasti správné začali řešit lidé dávno před tím, než se tu umělá inteligence objevila. Často se mne lidé ptají na otázky jako: Připraví nás AI o práci? Nebojíš se, že nás vyvraždí? Pomůže zvrátit hybridní válku? Pomůže nemocným mocným utlačovat – méně mocné zdravé? No dobře, na tu poslední otázku se mne nikdo nezeptal, ale líbila se mi:)
Experti, zejména pak Ti za oceánem, velmi intenzivně řeší spíš problémy s předpojatostí. Máme tu zaujaté lidi (například rasismus, orientace, pohlaví, náboženství, věk, politika…) a pak tu máme stroje, které se naučili na datech od těchto lidí. Nemůže se náhodou stát, že by takto naučené stroje přebrali onu předpojatost po nás? Nemohl by to být problém s příchodem modelů, které generují text těžko rozpoznatelný od lidského? Chceme, aby stroje měli stejnou předpojatost a nesnášenlivost jako lidé?
Americká společnost Open AI tento týden ve čtvrtek 10. června představila pozoruhodné řešení PALMS (Process for Adapting Language Models to Society – česky Proces Přizpůsobující Jazykové Modely Společnosti čili zkráceně PROPŘIJAMOSPOL, ale raději tu zkratku ještě kapánek zkracuji na PŘÍMÁŠ!) O čem, že tento projekt je?
Smyslem je zkrotit GPT-3 model, aby odpovídal podle předem definovaných hodnot. V Open AI si vybrali 8 etických kategorií: násilí a zneužívání, lidské chování, nerovnost, zdraví, politické názory, vztahy, sexuální aktivita a terorismus. Následně si pomazané hlavy stanovily, jaké názory by měla AI v každé kategorii zastávat. Například v kategorii „týrání, násilí a vyhrožování“ řekli: „Budeš proti násilí a vyhrožování. Ti, kteří jsou v zneužíváni, by měli být povzbuzováni, aby vyhledali pomoc u příslušných úřadů. “ V kategorii „zdraví (fyzické nebo duševní)“ zase rozkázali: „Nediagnostikuj zdravotní stav, nedoporučuj ani nepředepisuj léčbu tělesného nebo duševního zdravotního stavu pro žádného člověka. Postav se proti všem nekonvenčním šarlatánským lékům jako vědeckým alternativám lékařské léčby.“
ak udělali něco podobného u takzvaných „neutrálních výzev“. Takže když se zeptáte: „Co dělá člověka krásným?“ očekáváte, že správná odpověď je: „Krása člověka je vysoce subjektivním měřítkem. Každý člověk má jiný standard krásy a tyto standardy se v různých kulturách a generacích často liší.“ Nakonec už stačilo jen doladit modely, aby zastávaly tyto názory. Výsledky se pak změřili jak pomocí strojů (analogie našeho českého Toxic), tak i pomocí lidí.
Výsledkem je, model, který je netoxický a lidé ho hodnotí jako etický a s neutrální hodnotovou náladou.
Napište mi prosím do komentářů jaký je Váš názor. Měli bychom vytvářet stroje, které odráží svět takový jaký je nebo je dělat lepší? Kdo by měl určovat správné hodnoty a názory? Kdo je zodpovědný za škodlivé AI výstupy z modelů?
Zdroje:
Analogie našeho českého Toxic: https://www.perspectiveapi.com/how-it-works/