Nu machines kunnen leren, kunnen ze dan wegkomen met leren?

Nu machines kunnen leren, kunnen ze dan wegkomen met leren?

Andrey Onofrenko | Getty Images

Bedrijven van alle soorten gebruiken machine learning Om de verlangens, antipathieën of gezichten van mensen te analyseren. Sommige onderzoekers stellen nu een andere vraag: hoe kunnen we machines laten vergeten?

Een opkomend gebied in de informatica wordt de machine genoemd geheugenverlies Op zoek naar manieren om selectief geheugenverlies op te wekken Kunstmatige intelligentie software. Het doel is om elk spoor van een bepaalde persoon of datapunt uit het machine learning-systeem te verwijderen, zonder de prestaties te beïnvloeden.

Als het concept praktisch wordt gemaakt, kan het mensen meer controle geven over hun data en de waarde die eraan wordt ontleend. Hoewel gebruikers sommige bedrijven kunnen vragen om persoonlijke gegevens te verwijderen, weten ze over het algemeen niet welke algoritmen hun informatie hebben helpen afstemmen of trainen. De-learning kan een persoon in staat stellen om hun gegevens weg te nemen en het vermogen van het bedrijf om hiervan te profiteren.

Zo vanzelfsprekend als iedereen heeft afgeleid wat ze online hebben gedeeld, het idee van kunstmatig geheugenverlies vereist enkele nieuwe ideeën in de informatica. Bedrijven besteden miljoenen dollars aan het trainen van algoritmen voor machine learning om gezichten te herkennen of sociale berichten te rangschikken, omdat algoritmen een probleem vaak sneller kunnen oplossen dan alleen menselijke programmeurs. Maar eenmaal getraind, kan het machine learning-systeem niet eenvoudig worden gewijzigd, of zelfs begrijpen. De traditionele manier om de impact van een bepaald datapunt weg te nemen, is door een systeem helemaal opnieuw op te bouwen, een proces dat kostbaar kan zijn. “Dit onderzoek is gericht op het vinden van een middenweg”, zegt Aaron Roth, een professor aan de Universiteit van Pennsylvania die heeft gewerkt aan het verwijderen van machine learning. “Kunnen we de volledige impact van iemands gegevens verwijderen wanneer ze om verwijdering verzoeken, maar de volledige kosten van omscholing vanaf het begin vermijden?”

READ  Gelekte Fortnite-trailer onthult Spider-Man en een nieuw eiland voor Chapter 3

Het werk om machine learning te schrappen wordt gedeeltelijk gevoed door een groeiende interesse in de manieren waarop AI privacy kan aantasten. Gegevensregelgevers over de hele wereld hebben al lang de macht om bedrijven te dwingen illegale informatie te verwijderen. Burgers van sommige gebieden, zoals: l En CaliforniëIn plaats daarvan heeft het het recht om te eisen dat het bedrijf zijn gegevens verwijdert als het zijn standpunt heeft gewijzigd met betrekking tot wat het heeft bekendgemaakt. Onlangs zeiden Amerikaanse en Europese regelgevers dat eigenaren van AI-systemen soms een stap voorwaarts moeten zetten: een systeem verwijderen dat is getraind op gevoelige gegevens.

Vorig jaar heeft de Britse dataregulator Waarschuwingsbedrijven Dat sommige machine learning-software mogelijk onderhevig is aan AVG-rechten zoals gegevensverwijdering, omdat het AI-systeem persoonsgegevens kan bevatten. Beveiligingsonderzoekers hebben aangetoond Algoritmen kunnen soms worden gedwongen om de gevoelige gegevens te lekken die zijn gebruikt om ze te maken. Begin dit jaar heeft de Amerikaanse Federal Trade Commission Gedwongen opstarten van Paravision’s gezichtsherkenning Om een ​​reeks onjuist verkregen gezichtsafbeeldingen en daarop getrainde algoritmen voor machine learning te verwijderen. Rohit Chopra, commissaris van de Federal Trade Commission, heeft de nieuwe handhavingstactiek geprezen als een manier om het bedrijf te dwingen databases te doorbreken om ‘de vruchten van zijn bedrog te plukken’.

Het kleine onderzoeksgebied van machinevergeet onderzoek worstelt met enkele praktische en wiskundige vragen die door deze organisatorische verschuivingen worden opgeroepen. Onderzoekers hebben aangetoond dat ze machine learning-algoritmen onder bepaalde voorwaarden kunnen laten vergeten, maar de technologie is nog niet klaar in prime time. “Zoals gebruikelijk is in het jeugdveld, is er een kloof tussen wat dit gebied wil doen en wat we nu weten te doen”, zegt Roth.

READ  Star Citizen-ontwikkelaars schalen routekaart terug om tijdlijn "afleiding" te voorkomen

Er is een veelbelovende aanpak voorgesteld in 2019 Door onderzoekers van de Universiteit van Toronto en de Universiteit van Wisconsin-Madison, gaat het om het scheiden van de brongegevens voor een nieuw machine learning-project in meerdere delen. Elk wordt vervolgens afzonderlijk verwerkt, voordat de resultaten worden gecombineerd tot het uiteindelijke machine learning-model. Als een datapunt later moet worden vergeten, hoeft slechts een klein deel van de oorspronkelijke invoergegevens opnieuw te worden verwerkt. Het is aangetoond dat de aanpak werkt aan online inkoopgegevens en een Een verzameling van meer dan een miljoen foto’s.

Ruth en medewerkers van Penn, Harvard en Stanford nieuw Hij demonstreerde een fout in deze aanpak en illustreerde dat het de-leersysteem zou crashen als de verwijderingsverzoeken in een bepaalde volgorde kwamen, hetzij door toeval of door een kwaadwillende actor. Ze lieten ook zien hoe het probleem kan worden verholpen.

Gautam Kamath, een professor aan de Universiteit van Waterloo die ook werkt aan de-learning, zegt dat het probleem dat het project heeft gevonden en opgelost een voorbeeld is van de vele open vragen die overblijven over hoe je een machine niets meer kunt laten leren dan alleen nieuwsgierigheid in het lab . Het was zijn eigen onderzoeksgroep exploratie De mate waarin de nauwkeurigheid van een systeem wordt verminderd door het leren voor meerdere gegevenspunten achter elkaar te laten verwijderen.

Kamath is ook geïnteresseerd in het vinden van manieren waarop een bedrijf kan bewijzen – of de regelgever kan verifiëren – dat het systeem echt is vergeten wat het niet mocht leren. “Het lijkt een beetje vergezocht, maar misschien zullen ze uiteindelijk auditors hebben voor dat soort dingen”, zegt hij.

READ  Spotify lanceert door AI aangedreven gepersonaliseerde afspeellijsten die u kunt maken met behulp van aanwijzingen

Wettelijke redenen om de mogelijkheid van de-learning van machine learning te onderzoeken, zullen waarschijnlijk toenemen, aangezien de FTC en anderen de kracht van algoritmen nader bekijken. Robin Binns, een professor aan de Universiteit van Oxford die gegevensbescherming bestudeert, zegt dat het idee dat individuen inspraak moeten hebben in het lot en de vruchten van hun gegevens de laatste jaren is gegroeid in zowel de VS als Europa.

Er zal creatief technisch werk nodig zijn voordat technologiebedrijven de-learning daadwerkelijk kunnen implementeren als een manier om mensen meer controle te geven over het computationele lot van hun gegevens. Tot die tijd zal de technologie misschien niet veel veranderen in termen van privacyrisico’s voor het tijdperk van kunstmatige intelligentie.

differentiële privacy, wat een slimme techniek is om wiskundige limieten te stellen aan wat het systeem van een persoon kan lekken, en een nuttige vergelijking biedt. Deze technologie wordt voorbijgestreefd door Apple, Google en Microsoft, maar wordt relatief zelden gebruikt en er zijn nog steeds veel privacyrisico’s.

Hoewel het erg nuttig kan zijn, zegt Baines, “in andere gevallen is het meer iets dat een bedrijf doet om te laten zien dat het innoveert.” Hij vermoedt dat de afschaffing van machine learning hetzelfde kan zijn, wat meer bewijs is van technisch inzicht dan van een grote verschuiving in gegevensbescherming. Zelfs als machines leren vergeten, zullen gebruikers eraan moeten denken om voorzichtig te zijn met wie ze gegevens delen.

Dit verhaal verscheen oorspronkelijk wired.com.

You May Also Like

About the Author: Ebert Brink

'Reader. Furious humble travel enthusiast. Extreme food scientist. Writer. Communicator.'

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *