밀푀유 22호 : Le mouvement pour réguler l’IA 📌 뉴스레터 mille-feuille는 한 주제당 최소 20개 이상의 프랑스 기사들을 읽고 핵심만 요약하여 발행합니다. 주제와 관련된 핵심적인 표현들과 내용들을 메일 한 통으로 간편하게 파악해 보세요!
📌 모바일보다는 PC로 보시는 것이 가독성이 좋습니다. |
|
|
🍃Mille-feuille 22호
안녕하세요, 밀푀유입니다.
구독자님들은 챗GPT 써보셨나요? 어떤 생각이 드셨나요?
저는 쓸 때마다 이 AI의 똑똑함에 놀라움과 두려움을 동시에 느끼고 있는데요. 저만 그런 건 아니었나 봅니다. 편리한 기술인 만큼 그것이 악용될 경우에 가져올 위험도 크다며 규제에 대한 논의가 계속되고 있죠. 5월에 있었던 G7 정상회의에서도 구체적 합의는 없었지만 생성형 AI 규제 필요성에 대한 합의가 이뤄졌고요, 지지난주 6월 14일에는 유럽 연합이 세계 최초로 AI 규제법을 통과시켰습니다. 우리나라에서도 관련 논의가 계속해서 이어지고 있죠.
오늘의 레터에서는 챗GPT를 이용한 흥미로운 실험(?)과, AI 규제에 대한 개괄적인 내용을 짧게 담아보았습니다. 다음 레터에서 더 구체적인 내용이 이어질 예정이에요 :)
이번 주부터는 장마가 시작된다고 합니다. 모두 실내에서 쾌적하고 뽀송한 하루하루 보내시길 바라겠습니다!
|
|
|
Les choses générées pas les IA sont-elles crédibles ? AI가 생성하는 것들은 믿을 만한가?
« Le Monde » a publié un article avec une vidéo qui met en évidence l'imperfection des images générées par les IA. Il propose d'utiliser les doigts comme un moyen de détecter si une image est vraie ou fausse. Cela signifie que les personnes présentes dans les images générées par les IA ont souvent plus de 6 doigts, et que les doigts sont pliés de manière impossible.
Dans la vidéo jointe à cet article, ChatGPT répond à la question « Pourquoi est-ce difficile pour les IA de dessiner les mains ? ». Il explique que cela est dû à la forme et à la structure très complexes des mains, et il cite des témoignages d'artistes célèbres pour étayer sa réponse. Il précise même que Léonard de Vinci lui-même a rencontré des difficultés pour représenter le mouvement des mains dans ses dessins, allant jusqu'à écrire : « Le mouvement de la main est très difficile à exprimer par des mots, et pourtant c'est l'une des choses les plus importantes dans le dessin ».
Cette vidéo très intéressante démontre non seulement l'imperfection des IA qui génèrent des images, mais aussi celle de ChatGPT qui génère le texte, car la citation de Léonard de Vinci qu'il nous a proposée s'avère être inexistante à la fin de la vidéo. Ainsi, l'intelligence artificielle, la machine, qui n'a pas d'émotion, peut nous fournir, sans la moindre parcelle de remords, des informations absolument fausses, voire inventées.
르몽드지는 영상과 함께 AI가 생성한 이미지의 불완전성을 드러내는 기사를 하나 게시했다. 기사에서는 이미지가 진짜인지 아닌지 판별하기 위한 단서로 ‘손가락’을 활용할 것을 제시한다. 즉 AI가 생성한 이미지에서는 사람들의 손가락 수가 6개 이상이거나 불가능한 방식으로 구부러져 있다는 것이다.
기사에 첨부된 영상은 ‘손을 그리는 것이 AI에게 왜 어려운 일인가?’ 라는 질문에 대한 챗GPT의 대답을 보여준다. 챗GPT는 그것이 손의 매우 복잡한 형태와 구조 때문이라고 답하며, 자신의 답변을 뒷받침하기 위한 근거로 유명한 예술가들의 증언을 인용한다. 챗GPT는 레오나르도 다빈치조차 다음과 같은 글을 남길 정도로 손의 움직임을 그림으로 그려내는 데 어려움을 겪었다고 설명했다 : ‘손의 움직임은 그것이 데생에서 가장 중요한 것들 중 하나임에도 불구하고 말로 표현할 수 없을 정도로 어렵다.’
이 흥미로운 영상은 이미지 생성 AI뿐만 아니라 텍스트를 생성하는 챗GPT의 불완전성도 증명한다. 왜냐하면 영상 말미에서 그것이 우리에게 제시했던 레오나르도 다빈치의 명구는 존재하지 않는 것으로 밝혀지기 때문이다. 이처럼, 감정이 없는 기계인 AI는 우리에게 일말의 가책도 없이 완전히 틀린, 심지어는 그것이 창조해낸 정보를 줄 수 있다. |
|
|
Le risque de désinformation et une crise de confidentialité 정보 왜곡의 위험성과 개인정보보호의 위기
Si la dernière partie de la vidéo n'avait pas révélé que la citation présentée par ChatGPT n'existait pas, tous ceux qui regardaient la vidéo auraient cru que Léonard de Vinci avait réellement fait ce commentaire. C'est le danger mortel de cette IA générative : elle donne l'impression que ce qui n'est pas vrai est vrai, ce qui amène les gens à y croire.
Ce qui est remis en question, ce n'est pas seulement la désinformation de l'IA générative, mais aussi la procédure d'entraînement des modèles d'IA. L'algorithme de l'IA se développe au détriment des données personnelles. Pendant son développement et son utilisation, le danger des données personnelles s'est manifesté à différents niveaux. Les utilisateurs ne savent pas comment leurs données privées sont utilisées, et certaines intelligences artificielles ont exploité des données même sans le consentement des utilisateurs.
만약 영상의 마지막 부분에서 챗GPT가 제시한 명구가 존재하지 않는다는 것을 밝히지 않았더라면, 영상을 보는 사람들은 모두 레오나르도 다빈치가 실제로 그런 글을 남겼다고 믿었을 것이다. 이것이 바로 이 생성형 AI의 치명적인 위험성이다 : 그것은 실제가 아닌 것을 실제처럼 보이도록 만들고, 사람들로 하여금 그것을 믿도록 만든다.
문제가 되는 것은 생성형 AI의 정보 왜곡뿐만이 아니다. AI를 훈련시키기 위한 과정 역시 문제다. AI 알고리즘은 개인정보를 희생하여 발전해왔다. 그것이 발전하고 활용되는 동안, 개인정보의 위기는 다양한 층위로 나타났다. 이용자들은 자신의 개인 정보가 어떻게 활용되는지 알지 못했으며, 몇몇 AI는 심지어 이용자의 동의 없이 데이터를 활용하기도 했다.
|
|
|
Le mouvement de l’Europe pour réguler l’IA AI를 규제하려는 유럽의 움직임
À la fin du mois de mars, l'Italie a temporairement bloqué ChatGPT. Elle l'a accusé de ne pas respecter la législation européenne sur les données privées, de ne pas informer les utilisateurs sur la collecte et l'utilisation de leurs données, et de ne pas établir de système de vérification de l'âge des utilisateurs pour limiter l'accès des enfants, bien que les réponses puissent contenir des informations nuisibles aux mineurs.
Plus l'IA est utilisée, plus nous nous exposons à la menace qu'elle représente. En février 2023, le nombre d'utilisateurs mensuels de ChatGPT avait déjà atteint un milliard. Cependant, aucun cadre juridique complet n'a encore été mis en place pour faire face à ses défauts technologiques. Le 14 juin, l'Union européenne est devenue la première à adopter le projet de loi sur le règlement de l'intelligence artificielle.
지난 3월 말, 이탈리아는 챗GPT를 일시적으로 차단했다. 이탈리아는 챗GPT가 유럽의 개인 정보 보호법을 준수하지 않은 점, 이용자들에게 그들의 개인 정보가 어떻게 수집되고 활용되는지 고지하지 않은 점, 그리고 (챗GPT의) 답변이 미성년자에게 유해한 정보를 포함할 수 있음에도 아이들의 접근을 제한할, 이용자의 나이를 확인하는 시스템이 전혀 갖춰져 있지 않은 점 등을 차단의 이유로 들었다.
우리가 AI를 많이 이용하면 할수록 그것의 위협에 노출될 위험이 커진다. 2023년 2월, 챗GPT의 월간 이용자 수는 이미 10억 명을 돌파했지만, 우리는 아직 그것의 기술적 결함을 규제하기 위한 완전한 법률을 마련하지 못했다. 그리고 6월 14일, EU가 AI에 대한 규제 법안을 처음으로 가결했다.
|
|
|
✍️ 이것만은 꼭! 오늘의 핵심 단어
- désinformation 정보 조작, 정보 왜곡
- confidentialité 정보의 기밀 유지
- intelligence artificielle(IA) générative 생성형 AI
- entraînement 훈련, 트레이닝
- au détriment de qn/qc ~을 희생시켜
- données personnelles 개인 정보
- réguler 규제하다
|
|
|
|