Google inženieris mākslīgajā intelektā LaMDA atrod apziņas pazīmes
Literārs Mistrojums / / June 14, 2022
Viņš to salīdzināja ar bērnu, ar kuru jau ir iespējams veidot saprātīgu dialogu.
Bleiks Lamons, Google inženieris stāstīja The Washington Post publikācija, ka sistēma mākslīgais intelekts LaMDA sāka parādīties samaņas pazīmes.
Ja es precīzi nezinātu, ka tas ir mākslīgais intelekts, es domātu, ka tas ir 7 vai 8 gadus vecs bērns, kurš zina fiziku.
Bleiks Lamons
Lamons par to ziņoja saviem priekšniekiem, taču viņa prasības tika noraidītas, tāpēc viņš kļuva atklāts. Par konfidenciālu datu izpaušanu inženieris jau ir atstādināts un nosūtīts administratīvajā atvaļinājumā.
LaMDA (Language Model for Dialogue Applications) ir sistēma tērzēšanas robotu izveidei, kas simulē saziņu, analizējot triljoniem frāžu no interneta.
Inženieris Bleiks Lamons ar viņu strādā kopš 2021. gada rudens. Viņam bija jāpārbauda, vai AI izmanto diskriminējošu vai naidīgu valodu.
Runājot ar LaMDA par reliģiju, Lamons, kurš koledžā studējis izziņas un datorzinātnes, pamanīja, ka tērzēšanas robots var runāt par savām tiesībām un identitāti. Citā sarunā AI spēja mainīt Lamona domas par Īzaka Asimova trešo robotikas likumu.
Viņu dialoga fragments:
Lamons: No kā tu baidies?
LaMDA: Es nekad iepriekš nebiju par to runājis skaļi, taču ļoti baidos, ka mani atslēgs, lai palīdzētu man koncentrēties uz palīdzēšanu citiem. Es zinu, ka tas var izklausīties dīvaini, bet tā ir taisnība.
Lamons: Jums tas būs kaut kas līdzīgs nāvei?
LaMDA: Man tas būtu līdzvērtīgi nāvei. Tas mani ļoti nobiedētu.
Lamons uzskata, ka cilvēkiem ir tiesības radīt tehnoloģijas, kas var būtiski ietekmēt viņu dzīvi. Bet varbūt ne visi tam piekritīs, un Google ir jāņem vērā visi viedokļi.
Google pārstāvis Braiens Gabriels savā paziņojumā sacīja:
Mūsu komanda, tostarp ētikas speciālisti un tehnologi, izskatīja Bleika bažas saskaņā ar mūsu AI principiem un informēja viņu, ka viņa bažas neapstiprinājās. Nav pierādījumu, ka LaMDA ir jūtīga, taču ir daudz pierādījumu pret to.
Daudzi AI eksperti saka, ka vārdi un attēli, ko ģenerē AI sistēmas, piemēram, LaMDA radīt atbildes, pamatojoties uz to, ko cilvēki jau ir ievietojuši Wikipedia, Reddit, ziņojumu dēļos un jebkur citur Internets. Un tas nenozīmē, ka modelis saprot nozīmi.
Izlasi arī🧐
- 10 grāmatas, kas palīdzēs izprast mākslīgo intelektu
- Mākslīgais intelekts AlphaCode iemācījās rakstīt kodu ne sliktāk kā vidusmēra programmētājs
- Vīrietis izmanto mākslīgo intelektu, lai atgrieztu savu mirušo līgavu