We moeten niet wachten tot de overheid het vacuüm van AI-governance opvult.

An image of , Security & Data, We must not wait for the government to fill the vacuum of AI governance.

In juli van dit jaar heeft het VK een nieuwe AI 'rulebook' waarin wordt voorgesteld hoe deze transformatieve technologie in de toekomst kan worden gereguleerd. Door steun voor AI-innovatie in evenwicht te brengen met de behoefte aan publieke bescherming, wordt een publiek debat geopend over de rol van regelgevers binnen AI-governancestructuren. Organisaties kunnen echter niet wachten tot dit rulebook is afgerond om de vragen die AI stelt aan te pakken.

Concerns over opaque black-box algorithms to questions regarding the ethical use of personal data and responsibilities related to security and privacy have made AI a hotbed of modern ethical dilemmas.

These dilemmas must be addressed by the swathes of public and private organizations now relying on AI to power innovation. However, despite the proliferation of AI in the enterprise, many organizations still lack strong AI governance crucial to ensuring the integrity and security of data-led systems.

Uit het laatste onderzoek van O'Reilly blijkt zelfs dat meer dan de helft van de AI-producten die in productie zijn bij wereldwijde organisaties nog steeds geen governanceplan hebben dat toeziet op hoe projecten worden gecreëerd, gemeten en geobserveerd. Zeer zorgwekkend is dat privacy en beveiliging – kwesties die rechtstreeks van invloed kunnen zijn op individuen – tot de risico's behoorden die het minst werden genoemd door organisaties toen hen werd gevraagd hoe zij de risico's voor AI-toepassingen evalueren. Organisaties die AI ondersteunen, melden dat 'onverwachte resultaten' het belangrijkste risico zijn waarmee AI-projecten worden geconfronteerd, op de voet gevolgd door de interpreteerbaarheid van modellen en degradatie van modellen, wat zakelijke problemen vertegenwoordigt. Interpretabiliteit, privacy, eerlijkheid en veiligheid zijn allemaal gerangschikt onder bedrijfsrisico's.

There may be AI applications where privacy and fairness are not issues (for example, an embedded system that decides whether the dishes in your dishwasher are clean). However, companies with AI practices must prioritize the human impact of AI as both an ethical imperative and a core business priority.

As UKRI (UK Research and Innovation) highlights, ‘responsible use of AI is proving to be a competitive differentiator and key success factor for the adoption of AI technologies. However, cultural challenges, and particularly the lack of trust, are still deemed to be the main obstacles preventing broader and faster adoption of AI.’

Gebrek aan bestuur is niet alleen een ethische zorg. Beveiliging is ook een enorm probleem, waarbij AI onderhevig is aan vele unieke risico's: gegevensvergiftiging, kwaadaardige invoer die valse voorspellingen genereert en reverse-engineeringmodellen om privé-informatie bloot te leggen, om er maar een paar te noemen. Beveiliging blijft echter dicht bij de onderkant van de lijst van waargenomen AI-risico's.

Nu cybercriminelen en kwaadwillenden steeds meer gebruik maken van geavanceerde technologie, kan cyberbeveiliging niet op de achtergrond blijven in de race om de belofte van AI waar te maken. Het is een essentieel onderdeel van de broodnodige AI-governance. Governance moet de matrix van risicofactoren voor AI-projecten verhogen en een hoeksteen worden van elk ontwikkelings- en implementatieprogramma.

AI-governance in een notendop

Met dat in gedachten, wat is AI-governance precies? Volgens Deloitte omvat het een 'breed spectrum aan capaciteiten gericht op het stimuleren van verantwoord gebruik van AI. Het combineert traditionele governance-constructies (beleid, aansprakelijkheid, enz.) met differentiële, zoals ethische beoordeling, vooringenomenheidstests en toezicht. De definitie komt neer op een operationele kijk op AI en bestaat uit drie componenten: data, techniek/algoritme en bedrijfscontext.'

In summary, ‘achieving widespread use of AI requires effective governance of AI through active management of AI risks and implementation of enabling standards and routines.’

Zonder AI-governance te formaliseren, weten organisaties minder snel wanneer modellen oud worden, resultaten bevooroordeeld zijn of wanneer gegevens onjuist worden verzameld. Bedrijven die AI-systemen ontwikkelen zonder streng bestuur om deze problemen aan te pakken, brengen hun bedrijf in gevaar. Ze maken de weg vrij voor AI om effectief de controle over te nemen, met onvoorspelbare resultaten die onherstelbare reputatieschade en grote juridische uitspraken kunnen veroorzaken.

The least of these risks is that legislation will impose governance, and those who have not been practicing AI governance will need to catch up. In today’s rapidly shifting regulatory landscape, playing catch up is a risk to reputation and business resilience.

Wat heeft de AI-governancekloof veroorzaakt?

The reasons for AI governance failure are complex and interconnected. However, one thing is clear – accelerated AI development and adoption has not been matched by a surge in education and awareness of its risks. What this means is that AI is suffering a people problem.

De belangrijkste knelpunten voor de adoptie van AI zijn bijvoorbeeld een gebrek aan geschoolde mensen. Ons onderzoek toont aanzienlijke lacunes in vaardigheden aan op belangrijke technologische gebieden, waaronder ML-modellering en datawetenschap, data-engineering en het onderhoud van zakelijke use-cases. De kloof in AI-vaardigheden is goed gedocumenteerd, met veel discussie en beleid van de overheid om datavaardigheden te stimuleren door middel van gericht tertiair onderwijs en bij- en omscholing.

Technologische vaardigheden zijn echter niet voldoende om de kloof tussen innovatie en bestuur te overbruggen. Het is niet raadzaam en niet eerlijk om het bestuur alleen aan technisch talent over te laten. Ongetwijfeld moeten degenen met de vaardigheden om AI te ontwikkelen ook worden uitgerust met de kennis en waarden om beslissingen te nemen en problemen op te lossen binnen de bredere context waarin ze opereren. AI-governance is echter echt een teaminspanning en vertegenwoordigt de waarden van een organisatie die tot leven zijn gebracht.

That means no organization can be complacent when embedding ethics and security within AI projects from the outset. Everyone across the organization, from CEO to data analyst, CIO to project manager, must engage in AI governance. They must align on why these issues matter and how the organization’s values play out through AI implementations.

AI-innovatie schiet vooruit terwijl regeringen en regelgevers over de hele wereld een inhaalslag maken met betrekking tot wat deze nieuwe technologieën betekenen voor de bredere samenleving. Elke moreel bewuste organisatie stelt de privacy, veiligheid en bescherming van het publiek op de eerste plaats, maar zonder streng AI-beheer is er een potentiële morele leegte. We kunnen niet wachten tot dit door regelgeving wordt ingevuld. Organisaties moeten net zo proactief omgaan met deze moeilijke vragen als met het omarmen van de kracht en belofte van AI.

Het opwaarderingsplan van Groot-Brittannië

Amber Coster • 26 april 2022

Werken op afstand zou meer dan 13 miljoen Britten* in staat kunnen stellen de kans te grijpen om buiten de grote steden te wonen en te werken, en zo economische kansen over het VK te verspreiden, volgens onderzoek dat vandaag is vrijgegeven door ClickUp, het alles-in-één productiviteitsplatform.

De helden van technologie

Steven Johnson • 26 april 2022

We hebben de neiging om geweldige bedrijfsleiders te aanbidden, maar er zijn duizenden vernieuwers wiens ideeën - van kleine functies tot gecompliceerde algoritmen - ons leven gemakkelijker, gezonder, veiliger en handiger hebben gemaakt. Maak kennis met Hidden Heroes, een nieuwe publicatie die is ontworpen om hun verhalen te vertellen en hen het eerbetoon te brengen dat ze verdienen.