Blogs

Terug naar overzicht

De AI-Verordening: waar moeten ondernemingen (nu al) rekening mee houden?

AI, ofwel Artificial Intelligence, is de laatste maanden een van de talking points. De introductie (en opmars) van ChatGPT heeft ervoor gezorgd dat bijzonder veel mensen AI hebben leren kennen en hierdoor op één of andere manier in aanraking gekomen zijn.

AI is evenwel geen nieuw fenomeen. Het maakt reeds geruime tijd deel uit van de Digitale Agenda voor Europa. In het kader hiervan heeft de Europese Commissie het (eerste) voorstel van de AI-Verordening reeds op 21 april 2021 gelanceerd.

Op 14 juni 2023 heeft het Europese Parlement zich voor het eerst over het voorstel van de AI-Verordening gebogen. Hierbij het Europese Parlement enkele amendementen toegevoegd. Nu kan er gewerkt worden aan de definitieve versie van de Verordening. Hieronder lichten we kort de centrale punten van (het voorstel van) de AI-Verordening toe.

De voorgestelde Europese AI-Verordening voorziet in verschillende procedurele en inhoudelijke verplichtingen voor diverse stakeholder van (risicovolle) AI-systemen. Het is dan ook van groot belang om tijdig het aanpassingsproces op te starten en rekening te houden met de AI-Verordening bij toekomstige beslissingen. Algemeen kan gesteld worden dat het van groot belang is om te investering het ethisch gebruik van gegevens en steeds privacy te respecteren.

Artificiële intelligentie wordt zeer breed gedefinieerd in het voorstel van verordening om ervoor te zorgen dat de verordening van toepassing is op zo veel mogelijk vormen van artificiële intelligentie.

In het voorstel van verordening wordt artificiële intelligentie in vier risiconiveaus onderverdeeld:

  • AI-systemen met een onaanvaardbaar risico, zoals manipulatieve systemen die gedrag verstoren, sociale puntensystemen die scores verbinden aan personen op basis waarvan zij onevenredig worden behandeld, grootschalige biometrische systemen die politie en handhavingsinstanties gebruiken en die kenmerken van een persoon herkennen.
    Deze systemen zijn uiteraard verboden.

  • AI-systemen met een hoog risico, zoals medische hulpmiddelen of tools die een rol spelen bij onder andere wervings- en sollicitatieprocessen.
    Voor deze systemen gelden strenge eisen en verplichtingen, waaronder een Europese conformiteitsmarkering en een mensenrechtentoets.
    Voor systemen met een hoog risico die een significant risico vormen voor de gezondheid, veiligheid of fundamentele rechten van personen werden er door het Europees Parlement extra drempels voorzien.

  • AI-systemen met een beperkt risico, zoals een chatbot.
    Voor deze systemen geldt er enkel een transparantieverplichting om de gebruiker in staat te stellen een weloverwogen beslissing te nemen om het systeem te gebruiken.

  • AI-systemen met een minimaal risico, die geen risico voor de gezondheid en de veiligheid van een persoon zorgen.
    Voor deze systemen gelden er geen aanvullende verplichtingen. Er wordt wel voorzien dat de Europese Commissie en de Europese lidstaten de naleving van vrijwillige gedragscodes zullen stimuleren en faciliteren.

Ondernemingen moeten zelf beoordelen in welke categorie de door hen ontwikkelde AI valt, waarbij in boetes voorzien wordt voor de foute classificatie van hoogrisico AI-systemen

De komst van ChatGPT heeft ervoor gezorgd dat het Europees Parlement bepalingen toegevoegd heeft die van toepassing zijn op generatieve AI en foundation models. Generatieve AI is een vorm van artificiële intelligentie die iets nieuws en unieks creëert, zoals tekst, afbeeldingen, video's en digitale ervaringen. Een foundation model is AI die al getraind is, maar verder ontwikkeld kan worden voor een specifieke toepassing.

Deze bepalingen voorzien in verplichtingen met betrekking tot de transparantie, het genereren van rechtmatige inhoud en de bescherming van het auteursrecht. Voor foundation models gelden bijkomende verplichtingen op vlak van risico- en gegevensbeheer en de robuustheid van het model.

Er wordt voorzien dat de Verordening goedgekeurd wordt eind 2023 en werking treedt op 9 juni 2024. Gelet hierop is het voor ondernemingen van groot belang om de nodige voorbereidingen te treffen.

DSC03337.jpg

Deze voorbereidingen bestaan uit volgende zaken:

  • Inventarisatie van de algoritmes die uw onderneming gebruikt
  • Nagaan en bepalen in welke risicocategorie dit AI systeem valt
  • Nagaan of het AI systeem voldoet aan de verplichtingen die gelden voor de desbetreffende classificatie en, indien dit niet het geval is, actie ondernemen.

Wil jij nagaan op welke wijze uw onderneming deze voorbereidingen kan treffen en aan welke verplichtingen uw onderneming onderworpen is? Aarzel dan niet om onze creatieve, innovatieve advocaten vrijblijvend te contacteren. Wij zitten graag persoonlijk met je samen om te kijken wat we voor je kunnen betekenen.

Terug naar overzicht

De AI-Verordening: waar moeten ondernemingen (nu al) rekening mee houden?

AI, ofwel Artificial Intelligence, is de laatste maanden een van de talking points. De introductie (en opmars) van ChatGPT heeft ervoor gezorgd dat bijzonder veel mensen AI hebben leren kennen en hierdoor op één of andere manier in aanraking gekomen zijn.

AI is evenwel geen nieuw fenomeen. Het maakt reeds geruime tijd deel uit van de Digitale Agenda voor Europa. In het kader hiervan heeft de Europese Commissie het (eerste) voorstel van de AI-Verordening reeds op 21 april 2021 gelanceerd.

Op 14 juni 2023 heeft het Europese Parlement zich voor het eerst over het voorstel van de AI-Verordening gebogen. Hierbij het Europese Parlement enkele amendementen toegevoegd. Nu kan er gewerkt worden aan de definitieve versie van de Verordening. Hieronder lichten we kort de centrale punten van (het voorstel van) de AI-Verordening toe.

De voorgestelde Europese AI-Verordening voorziet in verschillende procedurele en inhoudelijke verplichtingen voor diverse stakeholder van (risicovolle) AI-systemen. Het is dan ook van groot belang om tijdig het aanpassingsproces op te starten en rekening te houden met de AI-Verordening bij toekomstige beslissingen. Algemeen kan gesteld worden dat het van groot belang is om te investering het ethisch gebruik van gegevens en steeds privacy te respecteren.

Artificiële intelligentie wordt zeer breed gedefinieerd in het voorstel van verordening om ervoor te zorgen dat de verordening van toepassing is op zo veel mogelijk vormen van artificiële intelligentie.

In het voorstel van verordening wordt artificiële intelligentie in vier risiconiveaus onderverdeeld:

  • AI-systemen met een onaanvaardbaar risico, zoals manipulatieve systemen die gedrag verstoren, sociale puntensystemen die scores verbinden aan personen op basis waarvan zij onevenredig worden behandeld, grootschalige biometrische systemen die politie en handhavingsinstanties gebruiken en die kenmerken van een persoon herkennen.
    Deze systemen zijn uiteraard verboden.

  • AI-systemen met een hoog risico, zoals medische hulpmiddelen of tools die een rol spelen bij onder andere wervings- en sollicitatieprocessen.
    Voor deze systemen gelden strenge eisen en verplichtingen, waaronder een Europese conformiteitsmarkering en een mensenrechtentoets.
    Voor systemen met een hoog risico die een significant risico vormen voor de gezondheid, veiligheid of fundamentele rechten van personen werden er door het Europees Parlement extra drempels voorzien.

  • AI-systemen met een beperkt risico, zoals een chatbot.
    Voor deze systemen geldt er enkel een transparantieverplichting om de gebruiker in staat te stellen een weloverwogen beslissing te nemen om het systeem te gebruiken.

  • AI-systemen met een minimaal risico, die geen risico voor de gezondheid en de veiligheid van een persoon zorgen.
    Voor deze systemen gelden er geen aanvullende verplichtingen. Er wordt wel voorzien dat de Europese Commissie en de Europese lidstaten de naleving van vrijwillige gedragscodes zullen stimuleren en faciliteren.

Ondernemingen moeten zelf beoordelen in welke categorie de door hen ontwikkelde AI valt, waarbij in boetes voorzien wordt voor de foute classificatie van hoogrisico AI-systemen

De komst van ChatGPT heeft ervoor gezorgd dat het Europees Parlement bepalingen toegevoegd heeft die van toepassing zijn op generatieve AI en foundation models. Generatieve AI is een vorm van artificiële intelligentie die iets nieuws en unieks creëert, zoals tekst, afbeeldingen, video's en digitale ervaringen. Een foundation model is AI die al getraind is, maar verder ontwikkeld kan worden voor een specifieke toepassing.

Deze bepalingen voorzien in verplichtingen met betrekking tot de transparantie, het genereren van rechtmatige inhoud en de bescherming van het auteursrecht. Voor foundation models gelden bijkomende verplichtingen op vlak van risico- en gegevensbeheer en de robuustheid van het model.

Er wordt voorzien dat de Verordening goedgekeurd wordt eind 2023 en werking treedt op 9 juni 2024. Gelet hierop is het voor ondernemingen van groot belang om de nodige voorbereidingen te treffen.

DSC03337.jpg

Deze voorbereidingen bestaan uit volgende zaken:

  • Inventarisatie van de algoritmes die uw onderneming gebruikt
  • Nagaan en bepalen in welke risicocategorie dit AI systeem valt
  • Nagaan of het AI systeem voldoet aan de verplichtingen die gelden voor de desbetreffende classificatie en, indien dit niet het geval is, actie ondernemen.

Wil jij nagaan op welke wijze uw onderneming deze voorbereidingen kan treffen en aan welke verplichtingen uw onderneming onderworpen is? Aarzel dan niet om onze creatieve, innovatieve advocaten vrijblijvend te contacteren. Wij zitten graag persoonlijk met je samen om te kijken wat we voor je kunnen betekenen.

info@peeters.legal /
+32 11 49 71 57 /
Luikersteensweg 232/3, 3500 Hasselt /
BE 0790.629.380

© 2024 /
Privacy policy /
Disclaimer /
Algemene voorwaarden /
Creatic.Agency

Kantoorrekening: BE74 0689 4623 3007
Derdenrekening: BE81 0689 4635 1124