abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeblueskyburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfilterflaggenderglobeglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptriangletwitteruniversalitywebwhatsappxIcons / Social / YouTube

이 내용은 다음 언어로도 제공됩니다: English

기사

2026년 1월 5일

저자:
Byung-Il Oh, Digital Justice Network

대한민국: 시민사회단체, 활동가를 위한 최초의 생성형 AI 가이드라인 발표

Unsplash

“시민사회를 위한 생성형 AI 가이드”, 2025년 12월 19일

챗지피티, 제미나이 같은 챗봇뿐 아니라, 이미지·음악·영상을 생성하는 다양한 생성형 AI 서비스들이 등장하면서, 점점 더 많은 시민들이 업무와 개인적인 목적으로 이를 사용하고 있습니다. 시민사회 활동가 역시 예외는 아닙니다. 그런데 아직까지는 업무 목적이더라도 개인의 판단에 따라 활용하고 있을 뿐, 조직 차원의 생성형 AI 정책을 갖춘 단체는 거의 없는 상황입니다.

시민사회단체가 생성형 AI를 사용할 때 주의해야 할 점들이 많습니다. 예를 들어, 생성형 AI의 할루시네이션으로 인한 사실이 아닌 내용이 단체의 공식 문서에 포함될 경우 단체의 신뢰가 심각하게 훼손될 수 있습니다. 신뢰할 수 없는 상용 서비스에 개인정보나 기밀정보를 업로드할 경우 보안에 문제가 생길 수 있습니다. 생성형 AI의 결과물이 단체의 가치와 맞지 않는 편향을 포함할 수도 있습니다. 생성형 AI로 성명서를 작성하는 과정에서 활동가의 역량 강화와 단체 내 숙고라는 측면은 배제될 수 있습니다. 조직 차원의 정책없이 활동가 개인의 선택에 따라 AI 도구를 사용할 경우, 조직이 통제할 수 없는 문제가 발생할 가능성이 큽니다.

그러나 시민사회단체가 생성형 AI 서비스를 활용하는 것이 적절한지, 활용할 경우 어떠한 원칙과 정책 하에 활용하는 것이 바람직한지, 인권의 관점에서 참고할 수 있는 지침은 많지 않습니다.

(…) 가이드를 만들기 위해, 실제 어떤 업무에 어떤 AI 도구를 사용하고 있는지, 생성형 AI가 얼마나 유용한지, 사용하면서 경험하는 문제는 무엇인지에 대해 설문조사를 진행했습니다.

(…) 또한, 시민사회, 노동조합 활동가들과 함께 생성형 AI를 주제로 한 워크숍을 열어, 설문조사 결과와 정책 모델 초안을 공유하고 서로의 경험과 생각을 나누었습니다.

(…) 여러 한계에도 불구하고 이 가이드가 현재 생성형 AI 관련 정책을 고민하는 단체와 활동가들에게 조금이나마 도움이 되기를 바랍니다.