Artificiële intelligentie (AI) verandert fundamenteel de manier waarop mensen werken, met elkaar omgaan en beslissingen nemen op het werk. Of het nu gaat om automatische schrijftools, prestatieanalysesystemen of rekruteringsassistenten, AI is al alomtegenwoordig in ons dagelijks werkleven. Maar wat zegt de wetgeving? En welke voorzorgsmaatregelen moeten werkgevers en hun teams nemen?
Een stille revolutie ... die al volop op gang is
Veel bedrijven gebruiken nu al AI-tools zonder ze als zodanig te herkennen. Automatische samenvattingen van e-mails, voorgestelde reacties in e-berichten, vertaling van documenten en het genereren van content zijn slechts enkele van de functies die zijn geïntegreerd in bekende software (Microsoft 365 Copilot, Notion AI, ChatGPT ...). Deze tools kunnen de productiviteit verhogen, repetitieve taken automatiseren en tijd vrijmaken voor taken met meer toegevoegde waarde.
Maar deze vooruitgang roept ook veel vragen op over verantwoordelijkheid, transparantie en gegevensbescherming.
De AI Act: een Europees wettelijk kader dat momenteel wordt geïmplementeerd
De Europese Unie heeft een ambitieus regelgevingskader aangenomen met de Verordening tot vaststelling van geharmoniseerde regels inzake artificiële intelligentie (AI Act), die vanaf 2025 geleidelijk van kracht wordt. Het doel van deze verordening is om een klimaat van vertrouwen rond artificiële intelligentie te creëren en tegelijkertijd innovatie aan te moedigen.
Er worden vier risiconiveaus onderscheiden:
- Onaanvaardbaar risico: AI verboden (bijvoorbeeld gedragsmanipulatie, social scoring).
- Hoog risico: strikt gereguleerd gebruik, met name in HR (bv. geautomatiseerde rekruteringssystemen, prestatiebeoordeling).
- Beperkt risico: verplichting om gebruikers te informeren (bijv. chatbots, AI-gegenereerde content).
- Minimaal risico: weinig of geen beperkingen (bijv. spellingscheckers, spamfilters).
Werkgevers die een AI-tool met een hoog risico gebruiken, moeten voldoen aan documentatieverplichtingen, de transparantie van het systeem garanderen en werknemers bezwaar- en herzieningsprocedures bieden.
Goede praktijken voor werkgevers
In dit kader moeten bedrijven anticiperen op hun nalevingsvereisten en het gebruik van deze technologieën door hun werknemers goed omkaderen. Hier volgt wat nuttig advies:
- Breng in kaart welke AI-tools intern worden gebruikt, of ze geïntegreerd zijn met commerciële software of op maat zijn ontwikkeld.
- Informeer en train werknemers over de mogelijkheden, beperkingen en risico's van AI.
- Vermijd overmatige monitoring: geautomatiseerde monitoringtools kunnen snel opdringerig en contraproductief worden.
- Controleer of de GDPR wordt nageleefd: AI maakt de verplichtingen op het gebied van de bescherming van persoonsgegevens niet overbodig.
- Implementeer een intern AI-gebruiksbeleid, waarin verantwoordelijkheden, toegestane tools, verboden praktijken en validatiemechanismen worden verduidelijkt.
Conclusie
Artificiële intelligentie is geen sciencefiction meer. Het vormt al de kern van de tools die dagelijks in bedrijven worden gebruikt, soms zelfs zonder medeweten van de gebruikers. Hoewel het een krachtige hefboom is voor innovatie en efficiëntie, kan het niet worden ingezet zonder een kader. De AI Act biedt een regelgevingskader dat alle actoren, werkgevers, ontwikkelaars en gebruikers, verplicht tot meer waakzaamheid. Voor bedrijven in Brussel is het tijd om zich voor te bereiden, hun praktijken door te lichten en hun teams op te leiden zodat ze met vertrouwen kunnen evolueren in deze nieuwe technologische omgeving.
Door Nicolas Tancredi – Advocaat-Vennoot – DWMC
Dit artikel kan u ook interesseren: Telewerk: tussenkomst van de werkgever in de arbeidsmiddelen