De westerse blik op China's AI: tijd om te vervellen?

Het Jaar van de Slang staat in de Chinese astrologie symbool voor transformatie en vernieuwing. De slang werpt zijn oude huid af om verder te groeien. Misschien is het tijd dat wij in het Westen hetzelfde doen als het gaat om onze kijk op China's technologische opmars.

 De recente hype rond DeepSeek, een Chinese AI-speler die met krachtige open-source modellen de markt verrast, roept opnieuw de klassieke reacties op: verbazing, argwaan en soms zelfs paniek. Maar wat als we ons oude denken afwerpen en met een meer open blik kijken naar wat er werkelijk gebeurt?

DeepSeek: een gamechanger in AI?

DeepSeek heeft in korte tijd indruk gemaakt. Met modellen zoals DeepSeek-V3 en DeepSeek-R1, die tegen een fractie van de kosten concurreren met westerse AI-reuzen, stelt China wederom zijn technologische ambities scherp. Maar DeepSeek is geen op zichzelf staand fenomeen; het had net zo goed een andere Chinese AI-ontwikkeling kunnen zijn die de Westerse techgemeenschap verraste. DeepSeek is een product van een bewuste strategie, een systematische en langetermijngerichte aanpak van China om wereldwijd een prominente rol in AI te spelen.

Het 'New Generation AI Development Plan'

In 2017 lanceerde China zijn 'New Generation AI Development Plan', een ambitieuze strategie om tegen 2030 de wereldleider in kunstmatige intelligentie te worden. Dit plan is geen vrijblijvende visie, maar een georkestreerde strategie waarin alle overheidslagen, academische instellingen en bedrijven samenwerken aan een nationaal doel.

De kernprincipes van dit plan omvatten:

·       Technologische onafhankelijkheid: China wil de afhankelijkheid van buitenlandse AI-technologieën minimaliseren door eigen ecosystemen te ontwikkelen.

·       Fundamenteel onderzoek en toepassingen: Het plan richt zich zowel op basiswetenschap als op praktische AI-toepassingen in industrie, gezondheidszorg en defensie.

·       Beleidsmaatregelen en regelgeving: De Chinese overheid ondersteunt AI-ontwikkeling niet alleen financieel, maar ook via stimulerende wetgeving en regulering om innovatie te versnellen.

·       Opleiding en talentontwikkeling: AI-onderwijs en talentprogramma’s worden actief gepromoot om een duurzame stroom van hoogopgeleide experts te garanderen.

Dit verklaart waarom initiatieven zoals DeepSeek niet zomaar een toevallig succes zijn, maar eerder een direct gevolg van een breed gedragen en doordacht plan. China bouwt geen losse experimenten, maar een volledige AI-infrastructuur die op lange termijn strategische voordelen oplevert.

En onze reactie?

Wat echter opvalt, is hoe de westerse techgemeenschap reageert. Dezelfde analisten en zelfbenoemde experts die maandenlang neerkeken op Chinese AI-ontwikkelingen, roepen nu moord en brand. DeepSeek zou 'plots' uit het niets gekomen zijn, alsof innovatie alleen mogelijk is binnen de muren van Silicon Valley. De realiteit is anders: China heeft systematisch gewerkt aan AI-ontwikkeling met een duidelijke strategie waarin alle neuzen dezelfde kant op staan. In tegenstelling tot de vaak versnipperde initiatieven in het Westen, betekent een nationale strategie in China ook dat er structurele ondersteuning is, van beleid tot onderwijs en van infrastructuur tot talentontwikkeling.

Degenen die écht voeling hebben met China, omdat ze er werken of gewerkt hebben, zijn minder verrast. Zij zagen al langer dat China niet zomaar een volger is, maar actief een parallel AI-ecosysteem bouwt. De ophef die nu heerst onder westerse techwatchers illustreert vooral hoe weinig aandacht er werkelijk was voor wat er in China gebeurt – totdat het ineens niet meer genegeerd kan worden.

Bovendien is het belangrijk om te erkennen dat het succes van DeepSeek niet per se voortkomt uit ‘immense investeringen’ – een vaak gehoorde Westerse uitleg. Natuurlijk speelt financiering een rol, maar wat hier minstens zo doorslaggevend blijkt te zijn, is de strategische focus, nieuwsgierigheid, de wil om te slagen en het aanwezige talent. Waar in het Westen veel AI-ontwikkelingen afhankelijk zijn van kapitaalintensieve start-ups en venture capital, toont DeepSeek aan dat gericht beleid en structurele samenwerking minstens zo krachtig kunnen zijn als een zak geld.

Toch zien veel westerse commentatoren deze ontwikkelingen niet als een technologische mijlpaal, maar als een bedreiging. Er heerst een bijna automatische reflex om te focussen op risico's, controle en censuur. Maar is dat wel de juiste manier om deze vooruitgang te benaderen?

De westerse reflex: angst en achterdocht

Wanneer een doorbraak zoals DeepSeek de kop opsteekt, lijkt de westerse reactie vooral ingegeven door drie primaire bezorgdheden: risico’s, controle en censuur. Dit zijn op zich legitieme aandachtspunten, maar ze worden vaak selectief toegepast, zonder een bredere context in acht te nemen. Laten we ze stuk voor stuk analyseren.

Risico’s: wie controleert onze data?

Een van de meest gehoorde bezorgdheden rond DeepSeek en Chinese AI in het algemeen is data privacy en bescherming van persoonsgegevens. Westerse critici wijzen erop dat prompts en interacties met DeepSeek naar China gaan en dat het bedrijf expliciet aangeeft deze data te gebruiken voor verdere training van hun modellen. Dit is een terechte bezorgdheid, maar het vergt twee belangrijke nuances:

·       Lokaal draaien als alternatief: DeepSeek wordt als open-source model vrijgegeven, wat betekent dat het lokaal gehost kan worden. Bij een goed ingerichte setup kunnen alle potentiële achterpoortjes gesloten worden, waardoor er geen data naar China stroomt.

·       Systeemhonger naar data: Dezelfde zorgen over data-opslag en -gebruik gelden ook voor Westerse AI-systemen. Veel gebruikers van de gratis versie van ChatGPT zijn zich er niet van bewust dat hun data eveneens wordt gebruikt voor verdere training, tenzij ze diep in de instellingen een opt-out selecteren.

De reflex om stil te staan bij wat er met onze data gebeurt, is dus een goede reflex, maar het komt over als naïef of zelfs hypocriet als deze kritiek enkel op China gericht wordt. We leggen in veel grotere volumes waardevolle data in handen van Amerikaanse big tech-bedrijven, zonder dezelfde mate van verontwaardiging. Misschien is het tijd om kritischer te kijken naar alle AI-systemen, en niet alleen naar die uit China.

Nieuwe AI-ontwikkelingen brengen altijd risico’s met zich mee, of ze nu uit China, de VS of Europa komen. Maar in het Westen wordt Chinese AI vaak als inherent gevaarlijker gezien. Het argument luidt dat Chinese bedrijven minder transparant zouden zijn over hun modellen en dat Beijing AI kan gebruiken als strategisch machtsmiddel. Echter, ook in het Westen worstelen bedrijven als OpenAI en Google met AI-veiligheid en de gevolgen van grootschalige automatisering.

Ironisch genoeg toont de snelle opmars van DeepSeek juist aan dat de grootste risico’s niet per se liggen in waar een AI-model ontwikkeld wordt, maar eerder in hoe de wereld ermee omgaat. In plaats van louter te vrezen voor Chinese AI, zouden we meer moeten nadenken over onze eigen respons en strategie.

Controle: wie heeft de touwtjes in handen?

Een veelgehoord argument tegen Chinese AI-ontwikkeling is dat de Chinese overheid een grotere mate van controle uitoefent op technologiebedrijven dan in het Westen. Dit is gedeeltelijk waar: China heeft een duidelijk AI-governancebeleid en verwacht dat bedrijven zich houden aan staatsrichtlijnen. Dit roept zorgen op over autonomie en de vrijheid van innovatie.

Echter, het is belangrijk te erkennen dat controle over AI-systemen ook in het Westen een actueel debat is. De Amerikaanse CLOUD Act van 2018 bijvoorbeeld, stelt Amerikaanse wetshandhavingsinstanties in staat om toegang te eisen tot elektronische data, ongeacht waar deze zijn opgeslagen. Dit betekent dat Amerikaanse bedrijven verplicht kunnen worden om data die buiten de VS is opgeslagen, over te dragen aan de Amerikaanse autoriteiten.

Bovendien is het een misvatting dat Chinese technologiebedrijven direct worden bestuurd door partijfunctionarissen. Hoewel er in bedrijven van een bepaalde omvang inderdaad vertegenwoordigers van de Communistische Partij aanwezig zijn, is hun rol meer gericht op het bewaken van politieke en maatschappelijke lijnen dan op de dagelijkse operationele leiding. Deze praktijk is vergelijkbaar met bepaalde vormen van overheidsbetrokkenheid in westerse bedrijven, zij het in een andere context.

Het is dus de vraag of het terecht is om China te bekritiseren zonder naar onze eigen structuren te kijken. Controle en toezicht zijn wereldwijd belangrijke thema's in de technologie-industrie, en het is cruciaal om deze in een breder perspectief te plaatsen.

Is het immers geen groot risico om AI-ontwikkeling in een klein aantal westerse bedrijven te concentreren? Wat gebeurt er als AI zich enkel ontwikkelt volgens een Amerikaans of Europees waardenkader?

Censuur: technologie als politiek instrument

Een veelgehoorde kritiek op DeepSeek en andere Chinese AI-systemen is dat ze geen antwoord geven op politiek of maatschappelijk gevoelige onderwerpen in China, zoals Tiananmen, de Oeigoeren of Taiwan. Dit voedt de westerse perceptie dat Chinese AI-modellen enkel een verlengstuk zijn van staatscensuur. Maar dit argument verdient meer nuance.

Een LLM is geen encyclopedie

De eerste fout die vaak wordt gemaakt, is de verwarring tussen een Large Language Model en een encyclopedie. Een LLM zoals DeepSeek is geen Wikipedia en is niet ontworpen om een objectieve of complete bron van feiten te zijn. De kernkracht van een LLM ligt in het verwerken van taal, niet in het bieden van historische of politieke waarheden. Het model kan samenvatten, verbanden leggen en argumentatiestructuren blootleggen, maar dat betekent niet dat het een onbetwiste bron van waarheid is.

Culturele filters zijn geen modelbeperkingen

Uit testen blijkt bovendien dat DeepSeek’s beperkingen op gevoelige onderwerpen niet inherent in het model zelf zitten, maar achteraf zijn toegevoegd via een tweede moderatiestap. Dit betekent dat de censuur niet voortkomt uit het algoritmische DNA van het model, maar uit beleidskeuzes die worden toegepast op de output. Dit is vergelijkbaar met hoe westerse AI-modellen zoals ChatGPT filters toepassen op gevoelige thema’s zoals raciale stereotypen of verkiezingsdesinformatie. Dat een AI-systeem de maatschappelijke en politieke realiteit weerspiegelt van het land waarin het ontwikkeld wordt, is niet verrassend. Dat wij die realiteit niet als legitiem beschouwen, is een westers perspectief.

Zoek je feiten? Ga naar betere bronnen

De reflex om AI-modellen te testen op politiek gevoelige vragen is op zich begrijpelijk, maar ook enigszins goedkoop. Wie echt onderzoek wil doen naar Tiananmen of de situatie in Xinjiang, kan beter gebruik maken van journalistieke en wetenschappelijke bronnen in plaats van een chatbot. Westerse en Chinese media brengen elk hun eigen narratieven, en wie de volledige context wil begrijpen, zou idealiter ter plekke gaan spreken met betrokkenen in Beijing, Taipei of Urumqi.

Transparantie over beperkingen

Wat DeepSeek wél doet, is openlijk aangeven wat het niet kan, niet wil of niet mag vertellen. Dit staat in schril contrast met westerse AI-modellen, waar gebruikers vaak geconfronteerd worden met hallucinaties en ongefundeerde antwoorden die niet als dusdanig worden gekenmerkt. Is het dan beter om een model te hebben dat een verzonnen antwoord geeft, of een model dat aangeeft dat het geen antwoord kán of mág geven? Dit is een fundamentele discussie over AI-transparantie die verder reikt dan enkel China.

China’s technologische governance: een doordacht ecosysteem

Terwijl het Westen vaak worstelt met het ontwikkelen van regelgeving rond nieuwe technologieën, heeft China op verschillende fronten een gestructureerde en uitgebreide governance-aanpak geïmplementeerd. Dit gaat verder dan alleen kunstmatige intelligentie (AI) en omvat ook privacy, data governance, en zelfs auteursrechten in het digitale tijdperk. Hoewel er kritiek is op sommige aspecten van deze regels, laat de aanpak zien dat China geen ongereguleerd "wildwestland" is, maar eerder een speler die strategisch nadenkt over technologische uitdagingen en kansen.

Strikte regels voor deepfakes en AI-modellen

China is een van de eerste landen die specifieke wetgeving heeft aangenomen om de risico’s van AI en geavanceerde technologieën zoals deepfakes aan te pakken. De Deep Synthesis Regulations (2023) leggen bijvoorbeeld strikte eisen op aan ontwikkelaars van synthetische media:

·      Labeling: Deepfake-content moet expliciet worden gelabeld, zodat gebruikers weten dat het om gegenereerde inhoud gaat.

·      Verbod op misleiding: Het gebruik van deepfakes voor misinformatie of frauduleuze doeleinden is verboden.

·      Algoritmische transparantie: Platforms die synthetische content verspreiden, moeten details over hun algoritmen en dataverzameling openbaar maken.

Daarnaast vereist de Chinese overheid dat publieke AI-modellen een verplichte keuring ondergaan voordat ze worden gelanceerd, met focus op ethiek, veiligheid en maatschappelijke risico’s.

De PIPL: China’s privacywetgeving in detail

Met de introductie van de Personal Information Protection Law (PIPL) in 2021 heeft China zich nadrukkelijk gepositioneerd als een land dat privacy en dataprotectie serieus neemt. De PIPL is vaak vergeleken met de Europese Algemene Verordening Gegevensbescherming (AVG), maar kent ook eigen nuances:

·      Data-extraterritorialiteit: Net zoals de AVG geldt de PIPL ook voor bedrijven buiten China die persoonsgegevens van Chinese burgers verwerken.

·      Strenge toestemmingseisen: Voor het verzamelen en verwerken van gevoelige persoonlijke data, zoals biometrische gegevens, is expliciete toestemming vereist.

·      Data-exportregels: Bedrijven die data van Chinese gebruikers naar het buitenland willen sturen, moeten voldoen aan strenge eisen, waaronder verplichte veiligheidsbeoordelingen.

·      Hoge boetes: Overtredingen van de PIPL kunnen resulteren in boetes tot 50 miljoen yuan of 5% van de jaarlijkse omzet.

De PIPL benadrukt niet alleen individuen beschermen tegen misbruik van hun gegevens, maar ook het reguleren van hoe technologiebedrijven opereren in een datagestuurde wereld.

Auteursrecht: technologische innovatie en rechtspraak

China's technologische rechtbanken spelen een cruciale rol in het verduidelijken van auteursrechtelijke kwesties in een snel veranderende digitale omgeving. In 2022 heeft een Chinese rechtbank een baanbrekende uitspraak gedaan over de rechten van door AI gegenereerde content:

·      Auteursrechtelijke bescherming: In de zaak rond AI-gegenereerde kunst oordeelde de rechtbank dat werken gemaakt door een AI-systeem auteursrechtelijk beschermd kunnen zijn, mits menselijke creatieve input een significante rol heeft gespeeld in het proces.

·      Algoritmische aansprakelijkheid: Platforms die AI-modellen aanbieden, kunnen verantwoordelijk worden gehouden voor inbreuken op auteursrechten als hun algoritmen misbruik faciliteren.

Deze uitspraken weerspiegelen een vooruitstrevende visie op auteursrecht, waarbij de balans wordt gezocht tussen innovatie en bescherming van creatieve rechten.

Wat kunnen we leren van China’s aanpak?

China’s technologie-governance biedt waardevolle lessen voor andere landen en regio’s, maar die lessen zijn niet per se een kwestie van beter of slechter – eerder van andere prioriteiten en structuren. Hieronder een meer genuanceerde blik:

Snelheid en uitvoerbaarheid

China blinkt uit in snelheid en uitvoerbaarheid van een strategische visie. Zodra een plan zoals het 'New Generation AI Development Plan' is vastgesteld, volgt al snel concrete regelgeving. De EU heeft eveneens een sterke strategische lange-termijnvisie, zoals blijkt uit de onderhandelingen over de EU AI Act. Het verschil zit in de snelheid waarmee China schakelt en regelgeving omzet in actie, terwijl de EU meer tijd neemt voor zorgvuldige afstemming tussen lidstaten. Beide benaderingen hebben hun waarde.

Vrijheid versus controle

In de VS wordt technologische ontwikkeling grotendeels overgelaten aan de vrije markt, wat snelle innovatie bevordert, maar ook risico’s met zich meebrengt. Zonder regulering kunnen techgiganten domineren, terwijl consumenten minder worden beschermd tegen misbruik van data of desinformatie. Het contrast met China, waar regelgeving een centrale rol speelt, laat zien hoe belangrijk het is om een balans te vinden tussen marktwerking en controle.

Balans tussen controle en innovatie

China weet op unieke wijze controle te combineren met innovatie. Strenge regels, zoals verplichte keuringen en transparantie-eisen, worden aangevuld met stimulerende maatregelen zoals subsidies en onderwijs. Hoewel de EU AI Act ook elementen van deze balans bevat, blijft innovatie daar meer afhankelijk van de markt.

Geen woestijn, maar een doordachte oase

De perceptie dat China een gebrek aan regelgeving heeft, houdt geen stand bij een zorgvuldige analyse. Of het nu gaat om strikte regels voor synthetische media, privacybescherming via de PIPL, of vooruitstrevende rechtspraak rondom auteursrechten, China toont aan dat het niet alleen probeert te concurreren op technologisch niveau, maar ook streeft naar robuuste governance. Voor bedrijven en beleidsmakers wereldwijd is het tijd om te erkennen dat China niet slechts een technologisch productiecentrum is, maar ook een strategische en regelgevende kracht in de wereldwijde technologische arena.

Tijd voor een nieuwe mindset

Als we in 2024 echt vooruit willen, is het tijd om te vervellen en met een bredere blik naar AI-ontwikkeling te kijken. China is geen monolithische dreiging, maar een complexe speler met een eigen dynamiek en ambities. Willen we echt mee blijven doen in de AI-race, dan moeten we niet alleen kritisch, maar ook nieuwsgierig blijven.

Misschien is het tijd om de westerse reflex van angst en argwaan af te leggen en te kijken naar wat we daadwerkelijk kunnen leren. Want één ding is zeker: de AI-revolutie stopt niet bij de grens van het Westen.

Heb je vragen over hoe deze ontwikkelingen jouw bedrijf of beleid raken? Neem contact op via hallo@consey.legal – we denken graag met je mee!

Geschreven door Kris Seyen, Founder & Managing Partner consey.legal

Vorige
Vorige

AI en auteursrecht: wie is de echte maker?

Volgende
Volgende

Cowboys en persoonsgegevens: de grenzen van datascraping op LinkedIn