Ik ken Siri, de stemassistent van Apple, al bijna twaalf jaar, en toch kan ik me geen enkel zinvol gesprek herinneren dat we hadden. ChatGPT en ik kennen elkaar op onze beurt al zes maanden, maar we hebben over van alles gepraat, van de zin van het leven tot het plannen van een romantisch diner voor twee en we hebben zelfs samengewerkt aan programma’s en filmprojecten. Ik bedoel, we hebben een relatie.
Door de beperkingen van Siri kan hij nog steeds geen gesprek voeren of een langlopend heen-en-weer project aangaan. Ten goede of ten kwade, de Siri die we tegenwoordig gebruiken op onze iPhones, iPads, MacBooks, Apple Watch en Apple TV verschilt niet veel van degene die we voor het eerst zagen in 2011 op de iPhone 4s.
Zes jaar geleden schreef ik erover Siri’s eerste hersentransplantatie (Opent in een nieuw tabblad), het moment waarop Apple machine learning begon te gebruiken om Siri te trainen en zijn vermogen om te reageren op conversatievragen te verbeteren. De introductie van machine learning en, kort daarna, een ingebed neuraal netwerk in de vorm van Apple’s A11 Bionic-chip op de iPhone 8, betekende wat ik dacht dat een keerpunt was voor de eerste digitale assistent op consumentenniveau.
Deze programmering en silicium hielpen Siri de vraag en de context ervan te begrijpen, waardoor het verder kon gaan dan gewone antwoorden naar intelligente antwoorden op meer natuurlijke taalvragen.
Vroege Siri was zij niet
Niet in staat zijn om volledig met Siri te praten lijkt niet echt een probleem, hoewel we de film al hebben gezien Ha En ik begrijp wat we uiteindelijk van onze chatbots kunnen verwachten.
Pas toen deze verre toekomst door OpenAI’s GPT-3 en ChatGPT naar het heden werd gesnapt, werd Siri’s onvermogen in de eerste plaats gegooid.
Ondanks de inspanningen van Apple, vertraagde Siri in de leermodus. Dit komt waarschijnlijk omdat Siri nog steeds voornamelijk is gebouwd op machine learning in plaats van op generatieve AI. Het is het verschil tussen leren en creativiteit.
Alle door AI aangedreven chatbots en afbeeldingstools die we tegenwoordig gebruiken, creëren iets geheel nieuws van prompts en, binnenkort, kunst en afbeeldingen. Het zijn geen antwoordende bots, het zijn bouwbots.
Ik betwijfel of Apple hier iets van mist. De vraag is, wat gaat Apple doen en wat kan het eraan doen? Ik denk dat we niet verder hoeven te kijken dan de volgende Worldwide Developers Conference (WWDC 2023). We zijn allemaal gefocust op een potentiële mixed reality-headset van $ 3.000 waarmee Apple in juni zou kunnen pronken, maar de grootste aankondigingen van het bedrijf zullen zeker draaien om kunstmatige intelligentie.
“Apple moet onder ongelooflijke druk staan nu Google en Microsoft hun eigen oplossingen voor natuurlijke taal uitrollen”, aldus Moor Insights CEO en Cheif-analist Patrick Morehead (Opent in een nieuw tabblad) Vertel het me via Twitter DM.
Siri is spraakzamer
leuk vinden Gerapporteerd op 9to5Mac, zou Apple – eindelijk – zijn taalcreatie voor Siri (Bobcat) kunnen updaten. Merk op dat dit niet hetzelfde is als “generatieve AI”. Ik denk dat dat betekent dat Siri een beetje beter zal worden in informeel geklets. Ik verwacht ook niet veel meer dan dat.
Helaas kan Apple’s eigen geest voorkomen dat het GPT-4 inhaalt, laat staan GPT-3. Industriewatchers verwachten niet bepaald een moment van doorbraak.
“Ik denk dat wat ze doen op het gebied van AI niet noodzakelijkerwijs een grote sprong is, maar eerder een meer ethisch georiënteerde en afgemeten benadering van AI in Siri. Apple houdt van, leeft en sterft door zijn privacyverplichtingen en ik zou niet minder verwachten in hoe het levert Siri die in grotere mate afhankelijk is van AI”, zegt Executive Director of Creative Strategies en Principal Analyst Tim Bajarin (Opent in een nieuw tabblad) Hij schreef me in een brief.
Privacy boven alles
Apple’s niet aflatende vasthoudendheid aan de privacy van gebruikers zou zijn werk in de weg kunnen staan als het gaat om echt generatieve AI. In tegenstelling tot Google en Microsoft Bing heeft het geen enorme gegevensopslag die afhankelijk is van de zoekmachine om uit te putten. Evenmin traint het zijn AI op de enorme oceaan van internetgegevens. Apple doet machine learning op het apparaat. iPhone en Siri weten wat ze over jou weten op basis van wat er op je telefoon staat, niet wat Apple over jou en de 1,5 miljard iPhone-gebruikers wereldwijd kan weten. Natuurlijk kunnen ontwikkelaars de ML-tools van Apple gebruiken om nieuwe AI-modellen te bouwen en deze in hun apps te integreren, maar ze kunnen niet zomaar je gegevens verzamelen om meer over jou te weten te komen en Apple te helpen een betere Siri AI te leveren.
Zoals ik in 2016 schreef: “Het is ook interessant om te bedenken hoe Apple opzettelijk zijn AI-inspanningen zou kunnen uitschakelen. Gegevens over je koopgedrag in iTunes worden bijvoorbeeld niet gedeeld met andere systemen en diensten van Apple.”
De binnenlandse benadering van Apple zou zijn potentiële AI-inspanningen kunnen belemmeren. Zoals Morehead me vertelde: “Ik zie de meeste actie op het apparaat en in de cloud. Apple is sterk op het apparaat, maar zwak in de cloud en ik denk dat het bedrijf daar moeite mee zal hebben.”
Zoals ik het zie, heeft Apple een keuze. Een beetje gebruikersprivacy opgeven om Siri eindelijk te veranderen in de stemassistent die we altijd al hebben gewild, of de koers voortzetten met incrementele AI-updates die Siri verbeteren, maar niet toestaan om ChatGPT te evenaren.
‘Reader. Furious humble travel enthusiast. Extreme food scientist. Writer. Communicator.’