Deelnemers aan de ITchannelPRO summits weten dat van de bijeenkomst geluidopnames worden gemaakt. Tijdens interviews vragen we om toestemming dat te mogen doen. In beide gevallen kan de opname worden omgezet in tekst. Dat gebeurt tegenwoordig met een “handige AI tool”.
De combinatie AI en AVG is iets dat vaker ter sprake komt. Niet alleen tijdens bijeenkomsten zoals boven genoemd. Ook als er niets wordt opgenomen en gewoon kennis wordt uitgewisseld. Zonder zelf al te veel te sturen zijn het de anderen die er vragen over stellen, komen met voorbeelden waar ze van opkeken en natuurlijk de maatregelen die ze zelf nemen om binnen de wet te blijven.
Het is verleidelijk dat gedrag als representatief voor de hele markt te bestempelen. Echter door alleen al te wijzen op de term “Shadow AI” is duidelijk dat er ook iets bestaat als een groep AI gebruikers die helemaal niet nadenkt over bedrijfsbeleid en/of wetgeving.
Even iets uitproberen en kijken of het bevalt is dankzij de cloud zoveel makkelijker geworden dat velen niet opletten dat daardoor waardevolle bedrijfsdata met een onbekende tool wordt gedeeld. Minstens zo erg is dat het om meer kan gaan om bedrijfsdata, namelijk om persoonsgegevens. Niet alleen data van klanten, ook die van leveranciers en collega’s bevatten persoonsgegevens die op grond van de AVG beschermd dienen te worden. Alle soorten data (communicatie, via spraak, chat of mail, is ook data) – al dan niet bewust – gebruiken om eens een AI tool te testen is niet slim.
We zijn overigens niet de enigen die met de AVG bril op naar AI kijken. Daags na het schrijven van die artikel verscheen elders deze post die daar goed op aansluit.