De Britse regering wil graag "het potentieel te maximaliseren" van AI Shutterstock / TierneyMJ
Op het gebied van digitale technologieën, waaronder kunstmatige intelligentie (AI), kan de Britse begroting een barometer zijn voor technologische ontwikkeling en hype. Er is echter een zorgwekkende drang naar deregulering op de achtergrond – gecombineerd met een duidelijke wens om de rechthebbenden van gegevens aan te moedigen deze te delen met bedrijven die betrokken zijn bij AI.
Uit de laatste voorjaarsbegroting van de kanselier spreekt een begrijpelijke wens dat het VK “ons potentieel op het gebied van AI maximaliseert”. In de begroting wordt ook melding gemaakt van een investering van 900 miljoen pond in een “exascale supercomputer en AI Research Resource” ter ondersteuning van de aanzienlijke behoefte aan rekenkracht die deze AI-verbintenis met zich meebrengt. Er is ook een jaarlijkse prijs van 1 miljoen pond voor de beste wetenschappelijke vooruitgang op het gebied van AI.
Dit budget wedijvert met de laatste ChatGPT release van OpenAI. Het onthult echter ook een wens van de kant van de overheid om mee te doen aan de ontwikkeling van grote taalmodellen (LLM’s) – de naam van de technologie die ten grondslag ligt aan AI-chatbots zoals ChatGPT.
Lees meer:
Voorjaarsbegroting 2023: deskundigen reageren op plan Britse regering om economie vlot te trekken
Het bevorderen van de “soevereine Britse capaciteit” op dit gebied is een prijzenswaardig doel, maar is misschien wat ver gezocht aangezien de meeste LLM’s zijn ontwikkeld door de grotere spelers in Silicon Valley, die de miljoenen dollars kunnen opbrengen die nodig zijn om deze modellen op te leiden.
Ik heb alle begrip voor de aankondiging dat de bijbehorende “AI foundational models taskforce” de ministers rechtstreeks zal informeren. Een deel van wat we hebben gezien van LLM’s in het hoger onderwijs – inclusief de mogelijkheden om het te gebruiken om opdrachten uit te voeren – suggereert de noodzaak om onze praktijken drastisch te veranderen.
Evenzo zie ik het potentieel voor effecten die een snelle beleidsreactie op nationaal niveau vereisen, ook al onderschrijf ik niet het geloof in een op handen zijnde “kunstmatige algemene intelligentie” – waarbij een chatbot net als een mens intellectuele taken kan begrijpen – of, wat een nog verder gevorderde stap zou zijn, de opkomst van sentience in LLM’s.
Junior partner
Terwijl quantum computing nog steeds op de agenda staat, krijgen veel andere ontwikkelingen van de laatste jaren en decennia weinig aandacht. De metaverse werd door de kanselier in één adem genoemd, met Web 3.0 als “de toekomst van de webtechnologie” – maar zonder een bijbehorend beleid voor beide. Er wordt niet gesproken over blockchains, slimme contracten of bitcoins. Het enige nut voor cryptocurrencies, volgens deze begroting, is ze te belasten.
In het nieuw gevormde Departement voor Wetenschap, Innovatie en Technologie is wetenschap duidelijk de junior partner – komt zelden zelf voor in deze begroting, en dan vaak alleen als toepassingsgebied van AI.
Voor mijn academisch oog is de wetenschap die de volgende generatie innovaties en technologieën zou kunnen opleveren meestal afwezig. Hetzelfde geldt voor de heroprichting van de Europese samenwerking die bekend staat als Horizon Europe, waar de Britse sector van het hoger onderwijs reikhalzend naar heeft uitgezien sinds de schijnbare vooruitgang voor Noord-Ierland in februari.
Meer in het algemeen krijgt het sociale verantwoordelijkheidsaspect van technologische ontwikkeling in de begroting weinig meer dan lippendienst. De belangrijkste regel in dit verband is:
De regering neemt alle aanbevelingen van Sir Patrick Vallance over de regulering van opkomende
digitale technologieën.
Deze aanbevelingen – volgens een afzonderlijk onderzoek dat (samen met de reactie van de regering) op dezelfde dag als de begroting is gepubliceerd – geven echter een zorgwekkend beeld van deregulering ten behoeve van innovatie.
Vragen over regulering
Hoewel het argument meestal wordt gepresenteerd als het wegnemen van onzekerheid over de regelgeving, is de hoofdgedachte dat de bestaande regelgeving innovatie en commerciële exploitatie van AI in het VK in de weg staat.
In tegenstelling tot de EU heeft het VK geen plannen voor specifieke regelgeving voor AI. De mate waarin bestaande gegevensbeschermingswetgeving zoals de (Britse) GDPR hierop van invloed is – in het bijzonder de regels rond geautomatiseerde besluitvorming en transparantie – is nauwelijks getoetst en nauwelijks gehandhaafd door het Information Commissioner’s Office (ICO), dat toeziet op gegevensbescherming.
Best-Backgrounds/Shutterstock
Dit kan te maken hebben met het feit dat de ICO in 2017 (op basis van artikel 108 van de Dereguleringswet) een “plicht kreeg om de wenselijkheid te overwegen om economische groei te bevorderen”. Dit werd door sommigen gezien als een ondermijning van haar onafhankelijkheid als toezichthouder voor gegevensbescherming.
Er wordt niet verwezen naar de lopende herziening van de gegevensbescherming in het VK, die AI reeds zou kunnen versterken ten koste van de privacy door de beperkingen rond het gebruik voor “onderzoek” te versoepelen – met inbegrip van de opleiding van AI-modellen door particuliere bedrijven. Vallance bevat tenminste een aanbeveling over “AI als dienst” om de rollen van gegevensbeheerder en gegevensverwerker te verduidelijken – belangrijke definities in de GDPR.
Dit is waarschijnlijk cryptisch bedoeld, en blijft onverteerd in de reactie van de overheid. In de context van GDPR kan het echter worden gelezen als een strijd over wie controleert wat er met gegevens mag worden gedaan in een AI-context, wie verantwoordelijk kan worden gehouden, en in welke context AI-bedrijven zich gegevens kunnen toe-eigenen voor opleidingsdoeleinden.
Toegang tot informatie
Andere rechten die de vooruitgang van AI in de weg staan zijn intellectuele eigendomsrechten, zoals het auteursrecht. Vallance stelt dat AI-bedrijven momenteel te veel belemmeringen ondervinden bij het gebruik van auteursrechtelijk beschermde gegevens om hun modellen te trainen.
Het antwoord van de regering draagt het Intellectual Property Office (IPO) op om rechthebbenden te dwingen “een redelijke licentie” voor hun gegevens aan te bieden aan elk goedwillend AI-bedrijf. Het is niet duidelijk hoe deze data grabbel te rijmen valt met de erkenning dat het VK wereldleidende creatieve industrieën heeft die centraal staan bij het realiseren van de groeiambities van de regering. Deze bedrijven zullen hun intellectuele eigendom willen beschermen en wellicht niet een deel ervan aan andere bedrijven willen overhandigen.
De laatste bron van gegevens voor AI-bedrijven die door Vallance’s voorgestelde deregulering mogelijk wordt gemaakt, is de overheid zelf. Volgens de slogan “unlocking the power of data” die we bijvoorbeeld kennen uit de digitale strategie van 2017, wordt het delen en koppelen van gegevens in de hele publieke sector aangemoedigd.
Dit omvat het “gemakkelijker maken voor bedrijven in de particuliere sector om veilig toegang te krijgen tot deze informatie”. De term “veilig” wordt vervolgens zinvol en verstandig uitgebreid met een verwijzing naar privacyverbeterende technieken en veilige dataplatforms zoals dat van het Office for National Statistics.
In het algemeen stellen de aanbevelingen van Vallance een “flexibele” aanpak van de regelgeving voor. Divergentie in een vroeg stadium waar verschillende blokken zoals het VK en de EU verschillende regels hebben; internationale harmonisatie van de regelgeving pas als de technologieën ingeburgerd raken. Gezien de snelheid waarmee AI zich momenteel ontwikkelt, is dit volgens mij echter geen verantwoorde benadering van de regulering ervan.
Eerke Boiten ontvangt financiering van UKRI en het Alan Turing Institute/Accenture voor onderzoeksprojecten met AI-aspecten.