Saznajte Kompatibilnost Po Znaku Zodijaka
Google AI uzet će bilo koju besmislenu frazu koju mu date i dati mu značenje
FYI
Iako To integrirane su u sve više i više našeg života u posljednjih nekoliko godina, te integracije nisu uvijek bile glatke. AI je bio sklon učiniti nešto što se naziva halucinatom, a to je kada predstavlja lažne podatke kao da je to istina ili jednostavno nešto izmiče.
Članak se nastavlja ispod oglašavanjaTe halucinacije mogu biti ozbiljne ili blesave, a kad su blesave, stvari mogu brzo izvući iz ruke. Slučaj u pitanju: Kad je jedan X (ranije korisnik Twittera) primijetio da možete spojiti bilo koju skupinu riječi zajedno, i Googleov Blizanci AI bi ga doživljavali kao idiom ili uobičajeni izraz i dali mu značenje. 'Dvije suhe žabe u situaciji' samo je jedan primjer. Evo što znamo.

Googleov Blizanci AI misli da je 'dvije suhe žabe u situaciji' čest izraz.
U postu Matt Rosea (@rose_matt) objasnio je da je pitao Blizance za značenje niza riječi koje ništa ne znače i dobio je objašnjenje.
'Danas sam naučio da možete upisati bilo kakve gluposti Google Slijedi 'Značenje', a AI će pretpostaviti da pretražujete dobro poznatu ljudsku frazu i ljutito smislite ono što misli da bi to moglo značiti ', napisao je.
Primjer koji je Matt upotrijebio bio je 'dvije suhe žabe u situaciji', za koji je Blizanci objasnio bio je 'metaforički izraz koji se često koristio za opisivanje teške ili nespretne društvene situacije. To je razigran način da kažete da je skupina ljudi, posebno dva, u nesigurnom ili neugodnom pregledu.'
Rezultati ako pretražite izraz sada ukloni AI, vjerojatno zato što ovo nije bio najbolji pogled za Blizance.
Članak se nastavlja ispod oglašavanjaKako ovaj incident jasno pokazuje, Blizanci će ponekad nešto izmisliti ako nema dobar odgovor, pretpostavljajući da osoba koja traži izraz ima nešto na umu. Iako je ovo prilično nizak primjer, to govori o načinu na koji su ti rezultati nepouzdani, pogotovo kada tražite nešto što bi moglo biti relativno nejasno.
Drugi su ljudi pokušali istu stvar.
Nakon što je Matt objavio svoj primjer na X, drugi su korisnici isprobali ruke u stvaranju idioma koji je besmislen i gledajući kakvu je definiciju Google dao.
Jedna je osoba ovo pokušala s frazom 'Osjećaji mogu biti povrijeđeni, ali riba se sjeća', i dobili ste objašnjenje za koje biste mogli očekivati da će netko tko nije proučavao test ako bi ionako morao odgovoriti na pitanje.
Još Osoba isprobana 'Veliki namiglica na zdjelici s tavama', što sada nije idiom, ali vjerojatno bi trebao biti u bliskoj budućnosti.
Iako nije uspjelo za svakog korisnika, mnogi su otkrili da bi mogli dobiti sastavljene definicije za svoje sastavljene fraze, signalizirajući da je AI, prije svega, osmišljen da korisnicima da odgovor, čak i ako je taj odgovor pogrešan ili potpuno netočan.
Nismo stigli na pozornicu gdje je AI ugodno priznati ono što ne znamo. Kao što svatko tko je ikada bio na terapiji zna, priznajući da je priznanje za ono što ne znate da je barem pola bitke.