간단히 말해서, AI 텍스트 탐지기는 특히 긴 샘플의 경우 "자세히 살펴보세요"라는 빠른 신호 역할을 할 수 있지만, 작성자를 확실하게 증명하는 것은 아닙니다. 짧거나, 많이 편집되었거나, 격식적이거나, 원어민이 작성한 글의 경우 오탐이나 누락이 흔하게 발생하므로, 단 하나의 점수에만 의존하여 결정을 내려서는 안 됩니다.
힌트 로서 도움이 될 수 있습니다 . 하지만 증거로서 신뢰할 수는 없습니다 . 전혀 그렇지 않습니다. 심지어 탐지기를 개발하는 회사들조차도 직간접적으로 (때로는 큰 소리로, 때로는 작은 글씨로) 이 점을 언급하는 경향이 있습니다. 예를 들어, OpenAI는 모든 AI가 작성한 텍스트를 안정적으로 탐지하는 것은 불가능하다고 , 의미 있는 오탐률과 오탐률을 보여주는 평가 수치를 발표하기도 했습니다.[1]
핵심 요약:
신뢰성 : 특히 중대한 사안의 경우, 탐지기 점수는 증거가 아닌 단서로 간주해야 합니다.
오탐지 : 형식적이고, 정형화되어 있으며, 간결하거나, 매우 세련된 사람의 글은 종종 잘못 분류됩니다.
오탐지 : 가벼운 의역이나 사람과 AI가 혼합한 초안은 쉽게 탐지되지 않을 수 있습니다.
검증 : 초안 작성 내역, 메모, 출처, 수정 내역 등 프로세스 증빙 자료를 우선적으로 활용하십시오.
지배구조 : 투명한 제한, 사람의 검토, 그리고 결과 부과 전 이의 제기 절차를 요구해야 합니다.
이 글을 읽고 나서 읽어보시면 좋을 만한 글들:
🔗 AI 탐지 작동 방식
도구가 패턴과 확률을 사용하여 AI가 작성한 글을 어떻게 찾아내는지 살펴보세요.
🔗 인공지능은 어떻게 트렌드를 예측할까요?
알고리즘이 데이터와 신호를 기반으로 수요를 예측하는 방식을 이해하십시오.
🔗 스마트폰에서 AI를 사용하는 방법
일상적인 업무에 AI 앱을 활용하는 실용적인 방법.
🔗 텍스트 음성 변환은 인공지능인가요?
TTS 시스템이 어떻게 텍스트에서 자연스러운 음성을 생성하는지 알아보세요.
사람들이 왜 자꾸 AI 탐지기의 신뢰성에 대해 묻는 걸까요? 😅
상황이 이상할 정도로 빠르게 심각해졌기 때문입니다.
-
교사들은 학문적 진실성을 지키고 싶어합니다 🎓
-
편집자들은 성의 없는 스팸성 기사를 막고 싶어합니다 📰
-
채용 담당자들은 실제 글쓰기 샘플을 원합니다 💼
-
학생들은 억울하게 고발당하는 것을 피하고 싶어합니다 😬
-
브랜드는 복사 붙여넣기식 콘텐츠 공장이 아닌, 일관된 목소리를 원합니다 📣
그리고 본능적으로, 공항의 금속 탐지기처럼 "이것은 진짜다" 또는 "이것은 가짜다"라고 확실하게 말해줄 수 있는 기계가 주는 안정감을 갈망하는 마음이 있습니다.
하지만… 언어는 금속이 아닙니다. 언어는 안개와 더 비슷하죠. 손전등을 비춰봐도 사람들은 여전히 자신이 본 것에 대해 논쟁을 벌입니다.

실제 사용 환경에서의 신뢰성 vs 데모 영상 🎭
통제된 환경에서는 탐지기가 인상적인 모습을 보여줄 수 있습니다. 하지만 일상적인 사용 환경에서는 상황이 다릅니다. 탐지기는 '작성자'를 식별하는 것이 아니라 패턴을 .
OpenAI의 현재는 중단된 텍스트 분류기 페이지에서도 핵심 문제에 대해 솔직하게 언급하고 있습니다. 신뢰할 수 있는 감지가 보장되지 않으며 성능은 텍스트 길이 (짧은 텍스트는 더 어렵습니다). 또한 그들은 이러한 절충의 구체적인 예를 공유했습니다. AI 텍스트의 일부만 포착하면서 때때로 인간 텍스트를 잘못 분류하는 경우입니다. [1]
일상적인 글쓰기는 혼란을 야기하는 요소들로 가득 차 있다
-
고강도 편집
-
템플릿
-
기술적인 어조
-
비원어민 표현
-
짧은 답변
-
엄격한 학술 형식
-
"새벽 2시에 이걸 썼는데 머리가 완전히 멍했어요."
그러니까 탐지기는 스타일 거죠. 마치 케이크 부스러기만 보고 누가 케이크를 구웠는지 알아내려는 것과 같아요. 때로는 짐작할 수 있지만, 때로는 부스러기에서 느껴지는 분위기만으로 판단해야 할 때도 있죠.
AI 탐지기의 작동 원리 (그리고 오작동 원인) 🧠🔧
실제 사용 환경에서 접하게 되는 대부분의 "AI 탐지기"는 크게 두 가지 유형으로 나뉩니다
1) 스타일 기반 감지 (텍스트 패턴을 통한 추측)
여기에는 고전적인 "분류기" 접근 방식과 예측 가능성/혼란도 기반 접근 방식이 포함됩니다. 이 도구는 특정 모델 출력에 나타나는 경향이
고장 원인:
-
인간의 글쓰기 또한 (특히 형식적이고, 평가 기준에 따라 쓰이거나, 템플릿을 사용한 글쓰기의 경우) "통계적"으로 보일 수 있습니다.
-
현대의 글쓰기는 흔히 (사람의 작성, 편집, AI 제안, 문법 도구 등) 가 혼합되어
-
도구는 테스트에 익숙한 영역을 벗어나면 지나치게 자신감을 가질 수 있습니다. [1]
2) 출처/워터마킹(추측이 아닌 검증)
출처 추적 시스템은 "단편적인 느낌"으로 저작권을 추론하려 하기보다는, 출처 증명 메타데이터를 첨부하거나 나중에 확인할 수 있는 신호를
NIST의 합성 콘텐츠 작업은 여기서 중요한 현실을 강조합니다. 워터마크 탐지기조차도 0이 아닌 오탐과 오분류가 발생 신뢰성은 워터마크가 생성 → 편집 → 재게시 → 스크린샷 → 플랫폼 처리 과정을 거치는 동안 유지되는지 여부에 달려 있습니다. [2]
네, 맞습니다. 원산지 추적은 원칙적으로 더 깨끗한 방식 … 하지만 생태계 전체가 이를 지원할 때만 그렇습니다.
가장 흔한 오류 유형: 오탐지와 오분류 😬🫥
이것이 핵심입니다. AI 탐지기가 신뢰할 만한지 알고 싶다면, " 어떤 대가를 ?"
오탐(사람이 AI로 잘못 판단한 경우) 😟
학교나 직장에서 벌어질 수 있는 악몽 같은 시나리오가 바로 이것입니다. 누군가가 글을 쓰고, 문제가 있다고 지적받으면, 갑자기 화면에 나타난 숫자에 맞서 자신을 변호해야 하는 상황에 놓이게 되는 것입니다.
흔히 볼 수 있는 매우 흔한 패턴이 있습니다
학생이 짧은 성찰(예: 수백 단어)을 제출합니다.
탐지기가 자신감 있는 점수를 내놓습니다.
모두가 당황합니다.
그러면 도구 자체에서 짧은 제출물은 신뢰도가 떨어질 수 있으며 점수를 불이익 조치의 유일한 근거로 사용해서는 안 된다고 경고한다는 사실을 알게 됩니다.[3]
Turnitin 자체 지침(릴리스 노트/문서)에서는 300단어 미만의 제출물은 정확도가 떨어질 수 있다고 있으며, 기관에서는 AI 점수를 학생에 대한 불이익 조치의 유일한 근거로 사용하지 말라고 상기시키고 있습니다.[3]
오탐은 다음과 같은 경우에도 나타나는 경향이 있습니다
-
지나치게 격식적임
-
의도적으로 반복적임 (평가 기준표, 보고서, 브랜드 템플릿)
-
짧은 (신호가 적고 추측에 의존하는 경우가 많음)
-
꼼꼼한 교정 및 다듬기 작업을 거쳤습니다
탐지기는 실제로 인공지능이 작성한 텍스트가 아니더라도 "이건 내가 본 적 있는 유형의 텍스트 같아 보인다"라고 말할 수 있습니다. 악의적인 의도가 아니라, 신뢰도 조절 슬라이더를 이용한 패턴 매칭일 뿐입니다.
오탐(AI가 플래그를 지정하지 않음) 🫥
누군가가 AI를 사용하고 약간 편집(순서 변경, 의역, 약간의 인간적 변형 삽입)하면 탐지기가 이를 놓칠 수 있습니다. 또한 잘못된 판단을 피하도록 조정된 도구는 설계상 AI 텍스트를 더 많이 놓치는 경우가 많습니다(이것이 임계값 절충입니다). [1]
그래서 최악의 조합에 빠질 수도 있습니다
-
성실하게 글을 쓰는 사람들이 때때로 문제가 되는 경우가 있습니다
-
작정하고 부정행위를 하는 사람들은 종종 그러지 않습니다
항상 그런 것은 아닙니다. 하지만 탐지기를 "증거"로 사용하는 것은 위험한 경우가 충분히 많습니다.
탐지기가 완벽하지 않더라도 "좋은" 탐지기 설치 환경을 만드는 요소는 무엇일까요? ✅🧪
어차피 (기관은 기관의 특성상 어쩔 수 없이) 재판부를 운영해야 한다면, "판사 + 배심원"보다는 "선별 + 증거" 구성이 더 바람직할 것입니다
책임감 있는 설정에는 다음이 포함됩니다
-
투명한 제한 (짧은 텍스트 경고, 도메인 제한, 신뢰 범위) [1][3]
-
명확한 기준점과 불확실성을 유효한 결과로 인정하는 것 ("모른다"는 표현을 금기시해서는 안 된다)
-
사람의 검토 및 과정 증거 (초안, 개요, 수정 내역, 인용 출처)
-
징벌적이고 점수만을 기준으로 하는 결정을 명시적으로 지양하는 정책 [3]
-
개인정보 보호 (민감한 정보를 불확실한 대시보드로 유도하지 마세요)
비교표: 탐지 방식 vs 검증 방식 📊🧩
이 테이블은 일부러 약간 독특한 모양을 하고 있어요. 왜냐하면 사람이 차가운 차를 마시면서 테이블을 만들면 원래 그런 모양이 되기 마련이니까요 ☕.
| 도구/접근 방식 | 청중 | 일반적인 사용 | 왜 효과가 있는지 (그리고 왜 효과가 없는지) |
|---|---|---|---|
| 스타일 기반 AI 탐지기(일반적인 "AI 점수" 도구) | 모든 사람 | 신속 분류 | 빠르고 간편하지만 스타일 과 출처를 있으며 짧거나 많이 편집된 텍스트에서는 불안정한 경향이 있습니다.[1] |
| 기관용 검출기(LMS 통합형) | 학교, 대학교 | 워크플로 플래그 지정 | 선별에 편리하지만 증거로 취급하면 위험합니다. 많은 도구가 점수만으로 결과를 얻는 것에 대해 명시적으로 경고합니다. [3] |
| 출처 보증 기준 (콘텐츠 인증/C2PA 방식) | 플랫폼, 뉴스룸 | 출처 추적 + 수정 | 엔드투엔드로 채택될 때 더 강력합니다. 더 넓은 생태계에서 메타데이터가 살아남는 것에 의존합니다. [4] |
| 워터마킹 생태계(예: 공급업체별) | 도구 공급업체, 플랫폼 | 신호 기반 검증 | 콘텐츠가 워터마킹 도구에서 나온 경우 작동하며 나중에 감지할 수 있습니다. 보편적이지 않으며 감지기에는 여전히 오류율이 있습니다. [2][5] |
교육용 탐지기 🎓📚
교육 현장은 유해성 감지 전문가들에게 가장 힘든 환경입니다. 왜냐하면 그로 인한 피해가 개인적이고 즉각적이기 때문입니다.
학생들은 글의 구조에 따라 평가받기 때문에 흔히 "정형화된" 방식으로 글을 쓰도록 교육받습니다
-
논문 주제문
-
단락 템플릿
-
일관된 톤
-
형식적 전환
그래서 탐지기는 학생들이 규칙을 지킨 것 때문에 오히려 처벌받는 결과를 초래할 수 있습니다.
학교에서 탐지기를 사용하는 경우, 가장 합리적인 접근 방식은 일반적으로 다음과 같습니다
-
탐지기는 선별 검사 용도로만 사용됩니다.
-
사람의 검토 없이는 어떠한 처벌도 없다
-
학생들이 자신의 과정을 설명할 기회
-
평가의 일환으로 초안 작성 내역/개요/출처를 제출해야 합니다
-
필요한 경우 구두 후속 진료
네, 구두 후속 조치는 심문처럼 느껴질 수 있습니다. 하지만 특히 탐지기 자체가 점수만으로 결정하지 말라고 경고하는 경우 "로봇이 당신이 부정행위를 했다고 말합니다"보다 더 공정할 수 있습니다. [3]
채용 및 직장 글쓰기 탐지기 💼✍️
직장 내 글쓰기는 다음과 같은 경우가 많습니다
-
템플릿
-
우아한
-
반복적인
-
여러 사람이 편집함
즉, 사람이 한 일이라도 알고리즘처럼 보일 수 있다는 뜻입니다.
채용을 진행할 때 탐지기 점수에만 의존하는 것보다 더 나은 접근 방식은 다음과 같습니다
-
실제 직무와 연관된 글쓰기를 요청하세요
-
짧은 라이브 후속 영상을 추가하세요 (5분 정도면 충분합니다)
-
스타일뿐 아니라 논리성과 명확성을 평가해야 합니다
-
후보자가 AI 지원 규칙을 사전에 공개할 수 있도록 허용합니다
현대 워크플로에서 "AI를 감지"하려고 하는 것은 누군가가 맞춤법 검사를 사용했는지 감지하려고 하는 것과 같습니다. 결국에는 당신이 보고 있지 않은 사이에 세상이 바뀌었다는 것을 깨닫게 됩니다. [1]
게시자, SEO 및 콘텐츠 검토를 위한 탐지기 📰📈
일괄 처리 분류 에 유용할 수 있습니다 . 즉, 의심스러운 콘텐츠 묶음을 표시하여 사람이 검토하도록 할 수 있습니다.
하지만 꼼꼼한 인간 편집자는 인공지능 탐지기보다 "인공지능스러운" 문제를 더 빨리 발견하는 경우가 많습니다. 편집자는 이를 알아차리기 때문입니다
-
구체적인 내용이 없는 모호한 주장
-
증거도 없이 확신에 찬 어조로 말합니다
-
콘크리트 질감이 빠져있습니다
-
"조립된"이라는 표현은 실제 사용감이 느껴지지 않습니다
그런데 반전은 바로 이것입니다. 그것은 마법 같은 초능력이 아닙니다. 그저 신뢰 신호를 .
단순 탐지보다 나은 대안: 출처, 공정, 그리고 "작업 과정 공개" 🧾🔍
탐지기가 증거로서 신뢰할 수 없다면, 더 나은 선택지는 단일 점수보다는 여러 겹의 증거를 종합하는 형태가 되는 경향이 있습니다.
1) 증거 처리 (숨은 영웅) 😮💨✅
-
체커
-
수정 내역
-
메모 및 개요
-
인용 및 출처 추적
-
전문적인 글쓰기를 위한 버전 관리
2) 함정 수사가 아닌 진위 확인 절차 🗣️
-
“이 구조를 선택한 이유는 무엇인가요?”
-
“어떤 대안을 거부하셨고, 그 이유는 무엇입니까?”
-
"이 문단을 어린 사람에게 설명해 보세요."
3) 원산지 표시 기준 준수 + 가능한 경우 워터마크 추가 🧷💧
디지털 콘텐츠의
출처와 편집 기록을 추적하는 데 도움이 되도록 설계되었습니다 한편, Google의 SynthID 생태계는 지원되는 Google 도구로 생성된 콘텐츠에 대한 워터마킹 및 이후 감지에 중점을 두고 있습니다(업로드를 스캔하고 워터마크가 있을 가능성이 있는 영역을 강조 표시하는 감지 포털 포함). [5]
이것들은 검증과 유사한 접근 방식입니다. 완벽하지도 않고 보편적이지도 않지만 "느낌으로 추측하기"보다 더 명확한 방향을 제시합니다. [2]
4) 현실에 부합하는 명확한 정책 📜
"AI 금지"는 단순하지만, 현실적이지 않은 경우가 많습니다. 많은 조직들이 다음과 같은 방향으로 나아가고 있습니다
-
"AI는 아이디어 구상에는 도움이 되었지만, 최종 초안 작성에는 적합하지 않았습니다."
-
"AI는 공개 시 허용됩니다."
-
"AI는 문법과 명확성을 제공했지만, 독창적인 추론은 반드시 당신의 몫입니다."
(꼭 필요한 경우) AI 탐지기를 책임감 있게 사용하는 방법 ⚖️🧠
-
탐지기는 단지 플래그로만 사용하십시오
. 판결이나 처벌 트리거로 사용하지 마십시오. [3] -
텍스트 유형을 확인하세요.
짧은 답변인가요? 글머리 기호 목록인가요? 많이 편집되었나요? 노이즈가 더 많이 발생할 것으로 예상됩니다. [1][3] -
근거 있는 증거를 찾아보세요.
초안, 참고 자료, 시간에 따른 일관된 어조, 그리고 저자가 자신의 선택을 설명하는 능력을 살펴보세요. -
혼합 저자 방식이 이제는 일반적이라고 가정해 봅시다.
사람 + 편집자 + 문법 도구 + AI 제안 + 템플릿… 일상적인 일이죠. -
한 가지 수치에만 의존하지 마십시오.
단일 점수는 게으른 결정을 부추기고, 게으른 결정은 허위 고발이 발생하는 원인이 됩니다. [3]
마무리 인사 ✨
따라서 신뢰성 현황은 다음과 같습니다
-
대략적인 힌트로 믿을 만함: 때때로 ✅
-
증거로서 신뢰할 만함: 아니오 ❌
-
안전하다는 이유만으로 처벌이나 테이크다운을 정당화할 수 있을까요? 절대 아닙니다 😬
감지기를 연기 감지기처럼 취급하세요:
-
더 자세히 살펴보아야 한다는 것을 암시할 수 있습니다
-
그것은 정확히 무슨 일이 일어났는지 알려줄 수 없습니다
-
이는 조사, 맥락 및 과정 증거를 대체할 수 없습니다
원클릭 진실 추출기는 대부분 공상 과학 소설이나 홈쇼핑 광고에나 나오는 거죠.
자주 묻는 질문
AI 텍스트 탐지기는 누군가가 AI를 사용했다는 것을 증명하는 데 신뢰할 수 있을까요?
AI 텍스트 탐지기는 저작권을 확실하게 증명하는 도구가 아닙니다. 특히 긴 샘플의 경우, 검토가 필요할 수 있는 부분을 빠르게 알려주는 신호 역할을 할 수 있지만, 동일한 점수라도 양쪽 모두 잘못된 결과를 초래할 수 있습니다. 중요한 상황에서는 탐지기 결과를 증거가 아닌 힌트로 활용하고, 단 하나의 점수에만 의존하여 결정을 내리는 것을 피해야 합니다.
AI 감지기가 인간의 글을 AI로 인식하는 이유는 무엇일까요?
오탐은 탐지기가 출처가 아닌 스타일에 반응할 때 발생합니다. 형식적이고, 정형화되어 있으며, 지나치게 다듬어졌거나, 간결한 글은 "통계적"으로 인식되어 완전히 사람이 작성한 글이라도 신뢰도 높은 점수를 받을 수 있습니다. 이 기사는 구조, 일관성, 명확성이 강조되는 학교나 직장과 같은 환경에서 이러한 현상이 특히 흔하다고 지적합니다. 이러한 환경은 탐지기가 의도치 않게 AI 출력과 연관 짓는 패턴과 유사하기 때문입니다.
어떤 유형의 글쓰기가 AI 탐지 정확도를 떨어뜨릴까요?
짧은 샘플, 심하게 편집된 텍스트, 기술적이거나 엄격한 학술적 형식, 그리고 원어민이 아닌 표현은 일반적으로 정확도가 떨어지는 결과를 초래합니다. 이 글은 일상적인 글쓰기에는 템플릿, 교정, 다양한 작성 도구 사용 등 패턴 기반 시스템을 혼란스럽게 하는 요소들이 많다는 점을 강조합니다. 이러한 경우, "AI 점수"는 신뢰할 수 있는 측정값이라기보다는 어설픈 추측에 가깝습니다.
누군가 바꿔쓰기를 통해 AI 텍스트 감지기를 우회할 수 있을까요?
네, AI 텍스트를 가볍게 편집할 경우 오탐(false negative)이 흔히 발생합니다. 기사에서는 문장 순서를 바꾸거나, 바꿔 쓰거나, 사람과 AI가 작성한 내용을 혼합하면 탐지기의 신뢰도가 떨어져 AI가 작성한 내용이 탐지되지 않고 넘어갈 수 있다고 설명합니다. 오탐을 방지하도록 설계된 탐지기는 AI 콘텐츠를 더 많이 놓치는 경향이 있으므로 "플래그되지 않음"이 "확실히 사람이 작성한 것"을 의미하는 것은 아닙니다
AI 탐지기 점수에 의존하는 것보다 더 안전한 대안은 무엇일까요?
이 글에서는 패턴 추측보다는 과정 증명을 권장합니다. 초안 기록, 개요, 메모, 인용 출처, 수정 내역은 자동 분류 점수보다 더 구체적인 저자 증명 자료를 제공합니다. 많은 워크플로에서 "작업 과정을 보여주는 것"은 더 공정하고 조작하기 어렵습니다. 또한, 여러 겹의 증거를 활용하면 잘못된 자동 분류로 인해 진정한 저자가 불이익을 당하는 위험을 줄일 수 있습니다.
학교는 학생들에게 해를 끼치지 않고 AI 탐지기를 어떻게 활용해야 할까요?
교육 환경은 그 결과가 개인적이고 즉각적으로 나타나기 때문에 위험 부담이 큰 환경입니다. 이 글에서는 채점 시스템은 단지 문제 해결을 위한 선별 도구로만 사용되어야 하며, 사람의 검토 없이는 절대 처벌의 근거가 되어서는 안 된다고 주장합니다. 합리적인 접근 방식으로는 학생들이 자신의 작업 과정을 설명하도록 하고, 초안과 개요를 검토하며, 필요한 경우 후속 조치를 취하는 것이 포함됩니다. 특히 짧은 과제물의 경우, 점수를 곧이곧대로 판단해서는 안 됩니다.
AI 탐지기는 채용 및 직장 내 작문 샘플 평가에 적합할까요?
업무 관련 문서는 여러 사람이 다듬고, 템플릿을 사용하고, 편집하는 과정을 거치는 경우가 많아, 비록 사람이 작성했더라도 알고리즘에 의해 만들어진 것처럼 보일 수 있기 때문에, 이러한 도구는 채용 과정에서 걸러내는 데 위험할 수 있습니다. 이 글에서는 업무 관련 글쓰기 과제, 간단한 실시간 후속 조치, 그리고 논리성과 명확성 평가와 같은 더 나은 대안을 제시합니다. 또한, 현대 업무 흐름에서 여러 사람이 공동으로 작성하는 방식이 점점 더 일반화되고 있다는 점도 지적합니다.
AI 탐지와 출처 추적 또는 워터마킹의 차이점은 무엇인가요?
저작권자 탐지는 텍스트 패턴에서 작성자를 추론하려 하지만, 스타일과 출처를 혼동할 수 있습니다. 출처 추적 및 워터마킹은 메타데이터 또는 내장된 신호를 사용하여 콘텐츠의 출처를 확인하고, 이를 나중에 검증할 수 있도록 합니다. 이 글에서는 이러한 검증 방식조차 완벽하지 않다는 점, 즉 신호가 편집이나 재게시 과정에서 손실될 수 있다는 점을 강조하지만, 처음부터 끝까지 제대로 지원될 경우 개념적으로 훨씬 깔끔하다고 지적합니다.
책임감 있는 AI 탐지기 설정은 어떤 모습일까요?
이 글은 책임 있는 사용을 "판사 + 배심원"이 아닌 "선별 + 증거"로 정의합니다. 이는 투명한 제한, 불확실성의 수용, 사람의 검토, 그리고 결과가 발생하기 전 이의 제기 절차를 의미합니다. 또한 텍스트 유형(짧은 글 vs 긴 글, 편집된 글 vs 편집되지 않은 글)을 확인하고, 초안이나 출처와 같은 근거 있는 증거를 우선시하며, 허위 고발로 이어질 수 있는 징벌적 점수제만을 사용하는 결과를 지양해야 한다고 주장합니다.
참고 자료
[1] OpenAI - AI가 작성한 텍스트를 식별하는 새로운 AI 분류기 (제한 사항 및 평가 논의 포함) - 자세히 보기
[2] NIST - 합성 콘텐츠로 인한 위험 감소(NIST AI 100-4) - 자세히 보기
[3] Turnitin - AI 글쓰기 감지 모델 (짧은 텍스트에 대한 주의 사항 및 점수를 불이익 조치의 유일한 기준으로 사용하지 않음 포함) - 자세히 보기
[4] C2PA - C2PA/콘텐츠 자격 증명 개요 - 자세히 보기
[5] Google - SynthID Detector - AI 생성 콘텐츠 식별을 지원하는 포털 - 자세히 보기