Naknada Zodijaka
Suppsibility C Slavne Osobe

Saznajte Kompatibilnost Po Znaku Zodijaka

Google AI uzet će bilo koju besmislenu frazu koju mu date i dati mu značenje

FYI

Iako To integrirane su u sve više i više našeg života u posljednjih nekoliko godina, te integracije nisu uvijek bile glatke. AI je bio sklon učiniti nešto što se naziva halucinatom, a to je kada predstavlja lažne podatke kao da je to istina ili jednostavno nešto izmiče.

Članak se nastavlja ispod oglašavanja

Te halucinacije mogu biti ozbiljne ili blesave, a kad su blesave, stvari mogu brzo izvući iz ruke. Slučaj u pitanju: Kad je jedan X (ranije korisnik Twittera) primijetio da možete spojiti bilo koju skupinu riječi zajedno, i Googleov Blizanci AI bi ga doživljavali kao idiom ili uobičajeni izraz i dali mu značenje. 'Dvije suhe žabe u situaciji' samo je jedan primjer. Evo što znamo.

 Logo Blizanca.
Izvor: Google
Članak se nastavlja ispod oglašavanja

Googleov Blizanci AI misli da je 'dvije suhe žabe u situaciji' čest izraz.

U postu Matt Rosea (@rose_matt) objasnio je da je pitao Blizance za značenje niza riječi koje ništa ne znače i dobio je objašnjenje.

'Danas sam naučio da možete upisati bilo kakve gluposti Google Slijedi 'Značenje', a AI će pretpostaviti da pretražujete dobro poznatu ljudsku frazu i ljutito smislite ono što misli da bi to moglo značiti ', napisao je.

Primjer koji je Matt upotrijebio bio je 'dvije suhe žabe u situaciji', za koji je Blizanci objasnio bio je 'metaforički izraz koji se često koristio za opisivanje teške ili nespretne društvene situacije. To je razigran način da kažete da je skupina ljudi, posebno dva, u nesigurnom ili neugodnom pregledu.'

Rezultati ako pretražite izraz sada ukloni AI, vjerojatno zato što ovo nije bio najbolji pogled za Blizance.

Članak se nastavlja ispod oglašavanja

Kako ovaj incident jasno pokazuje, Blizanci će ponekad nešto izmisliti ako nema dobar odgovor, pretpostavljajući da osoba koja traži izraz ima nešto na umu. Iako je ovo prilično nizak primjer, to govori o načinu na koji su ti rezultati nepouzdani, pogotovo kada tražite nešto što bi moglo biti relativno nejasno.

Članak se nastavlja ispod oglašavanja

Drugi su ljudi pokušali istu stvar.

Nakon što je Matt objavio svoj primjer na X, drugi su korisnici isprobali ruke u stvaranju idioma koji je besmislen i gledajući kakvu je definiciju Google dao.

Jedna je osoba ovo pokušala s frazom 'Osjećaji mogu biti povrijeđeni, ali riba se sjeća', i dobili ste objašnjenje za koje biste mogli očekivati ​​da će netko tko nije proučavao test ako bi ionako morao odgovoriti na pitanje.

Još Osoba isprobana 'Veliki namiglica na zdjelici s tavama', što sada nije idiom, ali vjerojatno bi trebao biti u bliskoj budućnosti.

Iako nije uspjelo za svakog korisnika, mnogi su otkrili da bi mogli dobiti sastavljene definicije za svoje sastavljene fraze, signalizirajući da je AI, prije svega, osmišljen da korisnicima da odgovor, čak i ako je taj odgovor pogrešan ili potpuno netočan.

Nismo stigli na pozornicu gdje je AI ugodno priznati ono što ne znamo. Kao što svatko tko je ikada bio na terapiji zna, priznajući da je priznanje za ono što ne znate da je barem pola bitke.