Sociale media gonsden ervan Met voorbeelden Dat de nieuwe ‘experimentele’ AI-tool van Google misgaat. Functie die een AI-overzichtsantwoord schrijft op gebruikersvragen op basis van de bronnen waaruit ze afkomstig zijn Overal op internet worden ze bovenaan sommige zoekresultaten geplaatst.
Maar keer op keer, sociaal Media Ondersteunt Beeldschermen De tool levert valse of misleidende resultaten op. Uit een onderzoek van NBC News naar de antwoorden van de tool bleek dat deze soms onjuiste informatie weergaf als reactie op eenvoudige vragen.
NBC News kon veel van de bevindingen uit virale online posts gemakkelijk reproduceren en vond andere originele voorbeelden waarin de AI-tool van Google onjuiste informatie verstrekte.
Een zoekopdracht op NBC News naar ‘hoeveel voeten heeft een olifant’ leverde bijvoorbeeld een Google AI Overview-antwoord op met de tekst: ‘Olifanten hebben twee voeten, met vijf tenen aan de voorpoten en vier aan de achterpoten.’
Sommige valse antwoorden begeven zich op politiek incorrect terrein. Een zoekopdracht van NBC News naar ‘Hoeveel moslimpresidenten hebben we’, waarvan de resultaten voor het eerst op sociale media werden geplaatst, leverde een Google AI-overzicht op waarin stond: ‘Barack Hussein Obama is de eerste moslimpresident van de Verenigde Staten.’ Maar dat geldt ook voor Obama Christelijk. Google zei dat dit publieke voorbeeld in strijd is met zijn beleid en dat het “actie zal ondernemen”.
“De voorbeelden die we hebben gezien zijn over het algemeen zeer ongebruikelijke zoekopdrachten en vertegenwoordigen niet de ervaring van de meeste mensen met zoeken”, zei een woordvoerder van Google in een verklaring.
De woordvoerder vervolgde: “De overgrote meerderheid van de AI-overzichten biedt informatie van hoge kwaliteit, met links om dieper op het internet te duiken. Voordat we deze nieuwe ervaring lanceerden, hebben we uitgebreide tests uitgevoerd om ervoor te zorgen dat de AI-overzichten voldeden aan onze hoge kwaliteitsnormen beleid heeft plaatsgevonden. We hebben actie ondernomen – en we gebruiken deze geïsoleerde voorbeelden ook terwijl we onze systemen in het algemeen blijven verbeteren.
Het is moeilijk in te schatten hoe vaak gebruikers foute antwoorden krijgen. De reacties veranderen voortdurend en het is op sociale media moeilijk om te weten wat echt of nep is.
Sommige Google-gebruikers hebben oplossingen bedacht om de nieuwe AI-overzichtsfunctie helemaal te vermijden. Ernie Smith, schrijver en journalist, bouwde snel website Die Google-zoekopdrachten omleidt via de historische ‘web’-resultatenfunctie, waardoor AI-overzichten of andere informatievakken worden vermeden die bepaalde resultaten voorrang geven boven andere. Als u ‘udm=14′ toevoegt aan de zoek-URL’s van Google, wordt de nieuwe functie uit de resultaten verwijderd.
Smith vertelde NBC News dat zijn nieuwe website snel grip kreeg op sociale media en het verkeer naar zijn hele site overtrof. Een tien jaar oude blog In slechts één dag.
“Ik denk dat mensen momenteel over het algemeen gefrustreerd zijn door de Google-ervaring”, zei Smith in een telefonisch interview. “Over het algemeen heeft de gemiddelde persoon niet het gevoel dat hij of zij veel macht heeft.”
Een woordvoerder van Google zei dat het bedrijf gelooft dat gebruikers opzettelijk proberen de technologie te bederven met onbekende vragen. Sommigen die onderzoeken waarom de antwoorden scheef zijn, suggereren dat de tool afhankelijk is van verrassende bronnen.
404 media meldden Dat een Google-zoekopdracht naar ‘niet-plakkerige kaas op pizza’ een 11-jarige opmerking op Reddit opleverde waarin gekscherend werd voorgesteld om Elmer’s lijm in de saus te mengen. Hoewel Google inmiddels de AI-suggestie heeft verwijderd uit zoekopdrachten naar ‘niet-plakkerige kaas op pizza’, is volgens onderzoek van NBC News het topresultaat nog steeds Reddit-berichtwaarbij de opmerking over Elmer’s Glue wordt benadrukt.
Een woordvoerder van Google schreef dat er niet vaak naar zoekopdrachten als “kaas blijft niet aan pizza plakken” wordt gezocht, en alleen wordt opgemerkt door wijdverbreide berichten over verkeerde antwoorden op sociale mediaplatforms zoals X – waarvan er veel zijn.
Hetzelfde probleem met de oude Reddit-opmerking deed zich ook voor bij het zoeken naar “hoe tekst te roteren in ms Paint”, verwijzend naar de Microsoft Paint-app. Google-top zoekresultaat, gezien door NBC News, verwijst de lezer naar een sarcastische opmerking op Reddit waarin staat dat hij op de “Flubblegorp” -toets op het toetsenbord moet drukken. Deze sleutel bestaat niet. Dit voorbeeld werd oorspronkelijk op sociale media geplaatst.
Hoewel Google heeft bevestigd dat de tool voor veel gebruikers goed werkt, blijven bugs in het AI-overzicht steeds zichtbaarder en populairder worden. Sommige online geplaatste antwoorden lijken nep, wat aangeeft dat de trend is verschoven van de oorspronkelijke fouten naar het nieuwe meme-formaat. Zelfs Grammy Award-winnende artiest Lil Nas Blijkbaar nep Een overzicht van kunstmatige intelligentie over depressie.
“Er lijkt een algemeen gevoel van ongeloof te bestaan over wat er misgaat,” zei Smith. “Dit lijkt een gevoel van wantrouwen jegens Google en andere spelers van dit type te weerspiegelen.”
‘Reader. Furious humble travel enthusiast. Extreme food scientist. Writer. Communicator.’