De limieten zijn oorspronkelijk ingesteld nadat verschillende gebruikers hadden gemeld dat de bot zich vreemd gedroeg tijdens gesprekken. In sommige gevallen kan hij zich wenden tot het identificeren van zichzelf als “Sydney”. Ze reageerde op beschuldigende vragen door zelf beschuldigingen te uiten, tot op het punt dat ze vijandig werd en weigerde met gebruikers om te gaan. In een gesprek met een verslaggever van de Washington Post zei de bot dat hij kon “voelen en denken” en boos kon reageren wanneer hem werd verteld dat het gesprek gepubliceerd kon worden.
Frank Shaw, een woordvoerder van Microsoft, weigerde dinsdag commentaar te geven buiten een blogpost.
Microsoft probeert de grens te bewandelen tussen het pushen van zijn tools naar de echte wereld om een marketinghype op te bouwen en gratis tests en feedback van gebruikers te krijgen, versus het beperken van wat een bot kan doen en wie er toegang toe heeft om potentieel gênant of gevaarlijk te blijven technologie uit het zicht van het publiek. Het bedrijf kreeg aanvankelijk lof van Wall Street voor het lanceren van zijn chatbot vóór aartsrivaal Google, dat tot voor kort werd gezien als een pionier op het gebied van kunstmatige-intelligentietechnologieën. Beide bedrijven zijn in een race met elkaar en met kleinere bedrijven om de technologie te ontwikkelen en ermee te pronken.
Bing-chat is nog steeds alleen beschikbaar voor een beperkt aantal mensen, maar Microsoft is bezig met het goedkeuren van meer van een wachtrij die in de miljoenen loopt, volgens een tweet van een bedrijfsleider. Hoewel het lanceringsevenement op 7 februari werd beschreven als een belangrijke productupdate die een revolutie teweeg zou brengen in de manier waarop mensen online zoeken, heeft het bedrijf sindsdien de Bing-release ontworpen om het te testen en bugs te vinden.
Bots zoals Bing zijn getraind op geschraapte stapels onbewerkte tekst van internet, inclusief alles van reacties op sociale media tot academische papers. Op basis van al deze informatie kunnen ze het meest redelijke type antwoord op bijna elke vraag voorspellen, waardoor ze er griezelig menselijk uitzien. AI-ethiekonderzoekers hebben in het verleden gewaarschuwd dat krachtige algoritmen op deze manier zullen werken, en dat mensen zonder de juiste context kunnen denken dat ze gezond zijn of hun antwoorden meer krediet geven dan ze waard zijn.
‘Reader. Furious humble travel enthusiast. Extreme food scientist. Writer. Communicator.’