밀푀유 23호 : AI Act, le premier règlement sur l’IA 📌 뉴스레터 mille-feuille는 한 주제당 최소 20개 이상의 프랑스 기사들을 읽고 핵심만 요약하여 발행합니다. 주제와 관련된 핵심적인 표현들과 내용들을 메일 한 통으로 간편하게 파악해 보세요!
📌 모바일보다는 PC로 보시는 것이 가독성이 좋습니다. |
|
|
🍃Mille-feuille 23호
안녕하세요, 밀푀유입니다.
즐거운 7월 보내고 계신가요? 벌써 상반기가 지나갔다니 시간이 참 빠릅니다.
밀푀유와 올해의 반을 함께해 주셔서 고맙습니다! :)
이번 레터에서는 지난 레터에 이어 유럽의 AI법에 대해 다루어 보려고 합니다.
두 번에 걸쳐 작성하다 보니 실제 법안이 통과된 날짜보다 조금 늦게 소식을 전하게 되었네요. 앞으로는 신속성에도 조금 더 신경 쓰도록 하겠습니다.
모쪼록 재미있게 읽어 주세요, 늘 고맙습니다!
|
|
|
AI Act, le premier règlement sur l’intelligence artificielle AI법, AI에 대한 최초의 규제
Le 14 juin, face à la menace de l'IA qui progresse très rapidement, l'Union européenne devient la première à adopter un projet de réglementation, nommé « Artificial Intelligence Act ». Ce projet d'encadrement a déjà été proposé en 2021, mais sa discussion piétine pendant ce temps-là. L'un des motifs de retard dans l'examen de la proposition de loi est l'émergence de nouvelles IA génératives telles que ChatGPT ou Midjourney, que nous ne pouvions pas imaginer il y a deux ans. Nous avons dû prévoir des réglementations contre ces nouvelles mesures, ce qui prend du temps.
6월 14일, 빠른 속도로 성장하고 있는 AI의 위협에 대해, EU는 ‘AI법’이라는 이름으로 세계 최초로 규제 법안을 통과시켰다. EU는 이미 2021년에 이 법안을 내놓았지만, 그 동안은 논의에 있어 큰 진전이 없었다. 법안의 심사가 미뤄졌던 이유들 중 하나는, 2년 전에는 우리가 상상조차 하지 못했던 챗GPT나 미드저니와 같은 생성형 AI의 등장이다. 우리는 이 새로운 위협들에 대한 법안도 마련해야 했으므로 시간이 더 걸렸다. |
|
|
Les IA interdites(inacceptables) 금지된(용납 불가한) AI들
Afin d'établir un cadre juridique objectif et fiable, l'UE a défini des critères pour évaluer le niveau de risque des IA. Ce niveau est divisé en 4 catégories : les IA inacceptables, les IA à risque élevé, les IA à risque limité et les IA à risque minimal.
Les IA jugées inacceptables sont celles qui manipulent les individus ou qui sont utilisées pour la notation sociale, comme la classification des personnes. Cela fait référence au système de crédit social en Chine. Ce système collecte les données des individus, évalue leur comportement et accorde des avantages à ceux qui se comportent de manière exemplaire, tandis qu'il inflige des sanctions à ceux qui se comportent de manière « inappropriée ». Dans tous les cas, ces IA jugées inacceptables seront complètement interdites.
De plus, les eurodéputés se sont mis d'accord pour interdire l'utilisation de systèmes d'IA intrusifs ou discriminatoires, tels que les systèmes d'identification biométrique à distance dans les lieux publics, ainsi que les systèmes de catégorisation biométrique qui utilisent des données sensibles telles que le genre, la race, la religion, l'orientation politique, etc.
객관적이고 믿을 만한 법안을 마련하기 위해, EU는 AI의 위험 수준을 평가하는 기준을 만들었다. 위험 수준은 용납 불가 단계, 높은 단계, 제한적 단계, 최소 단계의 4가지 카테고리로 분류된다.
용납 불가 단계의 AI는 인간을 조종하거나 사회적 평가, 즉 인간을 계층화하고 구분 짓는 데 활용되는 AI들이다. 이는 중국의 ‘사회 신용 시스템’을 염두에 둔 것으로 보인다. 사회 신용 시스템은 개인의 정보를 수집하고 국민들의 행동을 평가하여 모범적으로 행동한 국민에게는 혜택을 주고 반대로 부적절하게 행동한 국민에게는 불이익을 주는 시스템이다. 이러한 용납 불가 단계의 AI는 완전히 금지될 것이다.
또한 EU 의원들은 공공 장소의 원격 생체 인식 시스템이나, (성별, 인종, 종교, 정치적 성향 등) 민감한 데이터들을 활용한 생체 분류 등 기존의 시스템을 침해하거나 차별적인 AI 시스템의 사용을 금지하는 것에도 합의했다.
|
|
|
Les règlements sur les IA acceptables 허용된 AI들에 대한 규제
Le projet se concentre principalement sur les règles concernant les IA considérées comme « à haut risque ». Il s'agit des applications qui peuvent nuire à la santé, à la sécurité et aux droits fondamentaux des personnes. Elles sont utilisées dans des domaines tels que l'éducation, les ressources humaines, la gestion des migrations, etc. Ces IA devront désormais être soumises à un examen strict de conformité par un tiers.
Ensuite, les IA à risque limité englobent tous les systèmes qui interagissent avec les humains, tels que les chatbots ou les deepfakes. Le Parlement européen prévoit cependant de prendre en compte plus en profondeur les IA génératives comme ChatGPT, en imposant des obligations spécifiques aux systèmes à haut risque. Par exemple, les modèles génératifs seront tenus d'informer les utilisateurs si le contenu a été généré par une IA et si des contenus protégés par le droit d'auteur ont été utilisés pour l'entraînement des IA.
Enfin, les IA à risque minimal telles que les jeux vidéo ne seront soumises à aucune obligation, car elles sont considérées comme relativement sûres et ne présentent pas de véritables dangers.
En cas de violation de l'AI Act, les sanctions encourues sont les mêmes que celles du RGPD : une amende de 30 millions d'euros pour les individus et jusqu'à 6 % du chiffre d'affaires pour les entreprises.
법안의 핵심은 ‘높은 단계의 위험(고위험)’으로 간주되는 AI의 규제에 관한 것이었다. 고위험군 AI는 인간의 기본권, 건강, 안전에 해를 끼칠 수 있는 AI들이며, 교육, 인사(HR), 출입국 관리 등의 분야에서 활용된다. 고위험군 AI들은 이제부터 제3자에 의해 적합성을 엄격히 판단 받아야 한다.
다음으로, 제한된 위험의 AI는 챗봇이나 딥페이크 등 인간과 상호작용하는 모든 시스템을 말한다. 다만 유럽 의회는 챗GPT와 같은 생성형 AI에는 고위험군 시스템에 적용되는 의무를 부과하는 등 더욱 심도 있게 고려할 예정이다. 가령 생성형 모델에게는 컨텐츠가 AI에 의해 생성된 것인지의 여부와 저작권법의 보호를 받는 컨텐츠가 딥러닝에 활용되었는지의 여부를 이용자들에게 알리도록 의무화하는 것이다.
마지막으로 비디오 게임과 같은 최소 단계 위험의 AI에는 어떤 의무 사항도 부과되지 않을 예정이다. 왜냐하면 이러한 AI들은 실질적인 위험이 없는 비교적 안전한 AI로 간주되기 때문이다.
AI법을 위반할 경우 발생하는 제재는 RGPD(EU의 개인 정보 보호 규약)의 것과 동일하다 : 개인의 경우 3천만 유로, 기업의 경우 매출액의 최대 6%까지 벌금이 부과될 수 있다.
|
|
|
✍️ 이것만은 꼭! 오늘의 핵심 단어
- inacceptable 허용할 수 없는, 받아들일 수 없는
- classification 계층화
- identification biométrique 생체 인식
- conformité 적합성
- encouru 부과되는, (벌금 등을) 물어야 하는
|
|
|
|