Root NationČlánkyAnalyticsŠesť prikázaní umelej inteligencie

Šesť prikázaní umelej inteligencie

-

Nasledujúce roky sa budú niesť v znamení prudkého rozvoja technológií umelej inteligencie. Možno je potrebné zaviesť jasne definované rámce na vytváranie a používanie AI? Stačí 6 mesiacov skúseností na reguláciu technológie, ktorá ešte ani neopustila laboratórium? Táto otázka čoraz častejšie zaznieva z úst odborníkov a novinárov, pokiaľ ide o umelú inteligenciu. Čoraz častejšie sa ozývajú hlasy a výzvy na prijatie opatrení na reguláciu umelej inteligencie – ako na úrovni používateľov, tak aj na úrovni vývoja projektov. História takýchto odvolaní sa začala pomerne dávno.

Všadeprítomná prítomnosť umelej inteligencie v digitálnom priestore a predovšetkým modelov schopných vytvárať obsah, ktorý sa nebude líšiť od toho vytvoreného ľuďmi, vyvoláva veľmi odlišné emócie. Na jednej strane máme skupinu nadšencov, ktorí vidia v AI budúcnosť a napriek jej relatívne obmedzeným schopnostiam (pretože AI nemyslí a často len berie informácie z internetu) sa jej neboja zveriť veľa úloh. . Na druhej strane barikády je skupina, ktorá vyjadruje svoju skepsu a obavy zo súčasných trendov vo vývoji umelej inteligencie.

Postulát AI

Mostom medzi týmito dvoma skupinami sú výskumníci umelej inteligencie, ktorí na jednej strane uvádzajú početné príklady, ako umelá inteligencia pozitívne ovplyvnila okolitú realitu. Zároveň chápu, že je priskoro zaspať na vavrínoch a obrovský technologický skok prináša mnohé výzvy a veľkú zodpovednosť. Jasným príkladom tohto postoja je medzinárodná skupina výskumníkov umelej inteligencie a strojového učenia vedená doktorom Ozlem Garibayom z University of Central Florida. 47-stranová publikácia, ktorú napísalo 26 vedcov z celého sveta, identifikuje a popisuje šesť výziev, ktoré musia výskumné inštitúcie, spoločnosti a korporácie riešiť, aby boli ich modely (a softvér, ktorý ich používa) bezpečné.

Áno, ide o serióznu vedeckú prácu s dôležitými vysvetleniami pre pochopenie budúcnosti umelej inteligencie. Kto má záujem, môže samostatne prečítajte si túto vedeckú správu a urobte si vlastné závery. Jednoducho povedané, vedci identifikovali 6 prikázaní umelej inteligencie. Všetok vývoj a akcie AI im musia zodpovedať, aby boli bezpečné pre ľudí a svet.

Postulát AI

Vo svojom článku napísanom práve na základe tejto vedeckej práce sa pokúsim sformulovať hlavné postuláty, zákony, podľa ktorých by mala umelá inteligencia existovať a rozvíjať sa. Áno, toto je moja takmer voľná interpretácia záverov vedcov ohľadom vývoja umelej inteligencie a pokus o ich predloženie v takpovediac biblickej verzii. Ale takto som vám chcel priblížiť túto vedeckú prácu uznávaných vedcov.

Tiež zaujímavé: Budovanie AI: Kto vedie preteky?

Prvý zákon: Ľudské blaho

Prvým postulátom výskumníkov je zamerať prácu umelej inteligencie na ľudské blaho. Pre nedostatok „ľudských hodnôt, zdravého rozumu a etiky“ môže umelá inteligencia konať spôsobom, ktorý povedie k výraznému zhoršeniu ľudského blahobytu. Problémy môžu byť dôsledkom nadľudských schopností AI (napríklad ako ľahko AI porazí ľudí – a to nielen v šachu), ale aj toho, že AI nemyslí sama za seba, a teda nie je schopná „odfiltrovať“ zaujatosti resp. zjavné chyby.

AI Postulat

- Reklama -

Vedci poznamenávajú, že nadmerná dôvera v technológie umelej inteligencie môže negatívne ovplyvniť blaho ľudí. Spoločnosť, ktorá málo rozumie tomu, ako v skutočnosti fungujú algoritmy umelej inteligencie, im má tendenciu prehnane dôverovať, alebo má naopak negatívny postoj k obsahu generovanému určitým modelom, najmä chatbotmi. Berúc do úvahy tieto a ďalšie faktory, Garibayov tím vyzýva, aby sa do centra budúcich interakcií AI s človekom postavila ľudská pohoda.

Prečítajte si tiež: ChatGPT: jednoduchá používateľská príručka

Druhý zákon: Zodpovednosť

Zodpovednosť je pojem, ktorý sa vo svete AI neustále objavuje v kontexte toho, na čo používame strojové učenie a ako presne sa vyvíjajú a trénujú modely a algoritmy AI. Medzinárodný tím zdôrazňuje, že návrh, vývoj a implementácia umelej inteligencie by sa mala robiť výlučne s dobrými úmyslami.

AI Postulat

Podľa ich názoru by sa zodpovednosť mala posudzovať nielen v technickom, ale aj v právnom a etickom kontexte. Technológiu treba posudzovať nielen z hľadiska jej účinnosti, ale aj v kontexte jej použitia.

"So zavedením pokročilých techník strojového učenia je čoraz dôležitejšie pochopiť, ako bolo prijaté rozhodnutie a kto je zaň zodpovedný“ - píšu výskumníci.

Tretí zákon: Dôvernosť

Súkromie je téma, ktorá bumeranguje do každého diskurzu o technológiách. Najmä, keď sa na sociálnych sieťach diskutuje o všetkom. Pre umelú inteligenciu je to však mimoriadne dôležité, pretože bez databázy neexistuje. A čo sú to databázy?

Vedci ich opisujú ako „abstrakciu základných stavebných kameňov, ktoré tvoria spôsob, akým vidíme svet“. Tieto bloky sú zvyčajne svetské hodnoty: farby, tvary, textúry, vzdialenosti, čas. Zatiaľ čo úzka umelá inteligencia zameraná na jediný cieľ, ako je miera otvorenia uzávierky pri danej intenzite svetla, využíva verejne dostupné objektívne dáta, AI v širších aplikáciách (tu napríklad modely s prevodom textu na obrázok ako Midjourney , alebo jazykové modely, ako je ChatGPT ), môžu využívať údaje o ľuďoch a údaje nimi vytvorené. Treba spomenúť aj články v tlači, knihy, ilustrácie a fotografie uverejnené na internete. Algoritmy umelej inteligencie majú prístup ku všetkému, pretože sme im to dali my sami. Inak sa nič nedozvie a na žiadnu otázku neodpovie.

AI Postulat

Užívateľské dáta zásadne ovplyvňujú tak ľudí, o ktorých sa tieto dáta zhromažďujú, ako aj ľudí v systéme, kde budú implementované algoritmy umelej inteligencie.

Tretia výzva sa preto týka širokého chápania súkromia a poskytovania takých práv, ako je právo zostať sám, právo obmedziť prístup k sebe samému, právo na utajenie svojho osobného života alebo podnikania, právo kontrolovať osobný informácie, teda právo na ochranu osobnosti, individuality a dôstojnosti. Toto všetko musí byť zapísané do algoritmov, inak súkromie jednoducho nebude existovať a algoritmy AI môžu byť použité pri podvodných schémach, ako aj pri trestných činoch.

Prečítajte si tiež: 7 najlepších spôsobov, ako používať ChatGPT

Štvrtý zákon: Štruktúra projektu

Umelá inteligencia môže byť extrémne jednoduchá a jednoúčelová, no v prípade väčších modelov so širokým a multitaskingovým charakterom nie je problémom len súkromie dát, ale aj štruktúra dizajnu.

Napríklad GPT-4, najnovší model umelej inteligencie OpenAI, napriek svojej veľkosti a vplyvu na svet AI (a mimo neho), nemá úplne verejnú dokumentáciu. To znamená, že nerozumieme tomu, aké sú konečné ciele pre vývojárov, čo chcú dosiahnuť v konečnom výsledku. Preto nemôžeme úplne posúdiť riziká spojené s používaním tohto modelu AI. GPT-3, naopak, trénovaný na dátach z fóra 4chan, je model, s ktorým určite nechcete interagovať. Fórum 4chan je jedným z najzaujímavejších fenoménov na internete. Toto je príklad absolútnej, totálnej anarchie, ktorá v praxi nie je obmedzená žiadnym rámcom. Tu vznikli hackerské skupiny ako Anonymous alebo LulzSec. Je zdrojom mnohých najpopulárnejších mémov, miestom na diskusiu o kontroverzných témach a publikovanie ešte kontroverznejších názorov. Hoci sa na obrazovkách v anglickom jazyku uvádza, že „zatiaľ je to legálne“, je to trochu otázne, keďže 4chan sa príležitostne zapája do médií, vrátane rasistického, nacistického a sexistického obsahu.

AI Postulat

- Reklama -

Tím profesora Garibaya chce, aby každý model umelej inteligencie fungoval v jasne definovanom rámci. Nielen kvôli pohode osoby, s ktorou AI komunikuje, ale aj kvôli schopnosti posúdiť riziká spojené s používaním modelu. Štruktúra každého projektu by mala zahŕňať rešpektovanie potrieb, hodnôt a želaní rôznych kultúrnych skupín a zainteresovaných strán. Proces vytvárania, školenia a dolaďovania AI by mal byť zameraný na ľudskú pohodu a konečný produkt – model AI – by mal byť zameraný na zvyšovanie a zlepšovanie produktivity samotnej ľudskej komunity. Modely, pri ktorých nemožno identifikovať riziká, by mali mať obmedzený alebo kontrolovaný prístup. Nemali by byť hrozbou pre ľudstvo, ale naopak, prispievať k rozvoju človeka a spoločnosti ako celku.

Prečítajte si tiež: Twitter v rukách Elona Muska – hrozba alebo „vylepšenie“?

Piaty zákon: Riadenie a nezávislý dohľad

Algoritmy umelej inteligencie doslova zmenili svet za jediný rok. Premiéry Bard by Google a Bing Microsoft výrazne ovplyvnila akcie oboch gigantov na burze. Mimochodom, prispeli k rastu akcií týchto spoločností aj na pozadí akcií Apple. ChatGPT začali študenti školy aktívne využívať, komunikujú s ním, skúmajú ho a kladú otázky. Najdôležitejšie je, že má schopnosť samoučenia, opravovania svojich chýb. Umelá inteligencia dokonca začína fungovať aj vo vládach niektorých krajín. To je prípad rumunského premiéra Nicolae Chuca najal virtuálneho asistenta, ktorý ho bude informovať o potrebách spoločnosti. To znamená, že umelá inteligencia hrá v našich životoch čoraz dôležitejšiu úlohu.

AI

Vzhľadom na neustále narastajúcu vzájomnú závislosť medzi umelou inteligenciou, človekom a životným prostredím považujú vedci za nevyhnutné vytvorenie riadiacich orgánov a nezávislý dohľad nad jej vývojom. Tieto orgány budú riadiť celý životný cyklus umelej inteligencie: od nápadu až po vývoj a implementáciu. Úrady správne definujú rôzne modely AI a zvážia prípady súvisiace s umelou inteligenciou a subjektmi spoločenského života. To znamená, že umelá inteligencia sa môže stať predmetom súdnych sporov, ale aj žalôb. Aj keď, samozrejme, nie on osobne, ale jeho vývojári.

Prečítajte si tiež: Všetko o Neuralink: Začiatok kyberpunkového šialenstva?

Šiesty zákon: Interakcia človeka a umelej inteligencie

V programoch umelej inteligencie si každý môže nájsť niečo pre seba: generovať text, zisťovať obsah v obrázkoch, odpovedať na otázky, generovať obrázky, rozpoznávať ľudí na fotografiách, analyzovať údaje. Tieto viacnásobné použitia sa netýkajú len ľudí, ktorí sa snažia prispôsobiť umelú inteligenciu právnym a etickým štandardom. Mnohí sa obávajú, že ich modely AI vytlačia z trhu práce. Pretože algoritmy umelej inteligencie budú schopné robiť to isté rýchlejšie, lacnejšie a možno dokonca lepšie ako človek. Zároveň existujú ľudia, ktorí sa pri svojej práci spoliehajú na AI, teda umelá inteligencia je pre nich už dnes nepostrádateľným pomocníkom.

AI

Ale zo štúdií, na ktoré sa vedci odvolávajú, je jasné, že nahradenie ľudí lacnou umelou prácou je ešte poriadne ďaleko. Napriek tomu už teraz trvajú na potrebe zaviesť prísnu hierarchiu interakcie medzi ľuďmi a umelou inteligenciou. Podľa ich názoru by ľudia mali byť nadradení umelej inteligencii. Umelá inteligencia musí byť vytváraná s ohľadom na kognitívne schopnosti človeka, berúc do úvahy jeho emócie, sociálne interakcie, nápady, plánovanie a interakciu s predmetmi. To znamená, že vo všetkých situáciách je to osoba, ktorá musí stáť nad umelou inteligenciou, kontrolovať správanie a obsah vytvorený modelom a niesť za to zodpovednosť. Jednoducho povedané, aj tá najpokročilejšia AI musí poslúchať človeka a nesmie ísť nad rámec toho, čo je povolené, aby nepoškodila svojho tvorcu.

Prečítajte si tiež: Ako Ukrajina používa a prispôsobuje Starlink počas vojny

Višnovki

Áno, niekto povie, že vedci vo svojej správe nenaznačili nič dôležité a nové. Všetci o tom už dlho hovoria. Ale už teraz je potrebné dať AI do nejakého rámca zákonov. Siahnuť po GPT-4 je ako siahnuť po noži naslepo. Skrývajú pred nami kľúčové informácie. Všetok vývoj v oblasti umelej inteligencie a najmä projekt ChatGPT od Open AI mi často pripomína výchovu malého dieťaťa. Niekedy sa zdá, že ide o dieťa mimozemského pôvodu. Áno, mimozemšťan, ale stále je to dieťa, ktoré sa učí, robí chyby, niekedy sa správa nevhodne, je podráždené, háda sa s rodičmi. Hoci rastie a vyvíja sa veľmi rýchlo.

AI

Ľudstvo nemusí držať krok s jeho vývojom a veci sa môžu vymknúť spod kontroly. Preto už ľudstvo potrebuje pochopiť, prečo to všetko rozvíjame, poznať konečné ciele, byť „zodpovednými rodičmi“, pretože inak môže „dieťa“ svojich „rodičov“ jednoducho zničiť.

Prečítajte si tiež: 

Yuri Svitlyk
Yuri Svitlyk
Syn Karpát, neuznaný génius matematiky, „právnik“Microsoft, praktický altruista, ľavo-pravý
- Reklama -
Prihlásiť Se
Upozorniť na
host

0 Komentáre
Vložené recenzie
Zobraziť všetky komentáre