생성형 인공지능의 주요 목표는 무엇인가요?

생성형 인공지능의 주요 목표는 무엇인가요?

간단히 말하자면, 생성형 AI의 주요 목표는 기존 데이터에서 패턴을 학습하고 요청에 따라 이를 확장하여 새롭고 그럴듯한 콘텐츠(텍스트, 이미지, 오디오, 코드 등)를 생성하는 것입니다. 빠른 초안 작성이나 여러 가지 변형이 필요할 때 가장 유용하지만, 사실적 정확성이 중요한 경우에는 근거 자료 추가 및 검토 과정이 필요합니다.

핵심 요약:

생성 : 저장된 "진실"이 아닌 학습된 패턴을 반영하는 새로운 결과물을 생성합니다.

근거 제시 : 정확성이 중요하다면, 답변을 신뢰할 수 있는 문서, 인용문 또는 데이터베이스와 연결하십시오.

통제 가능성 : 명확한 제약 조건(형식, 사실, 어조)을 사용하여 결과물의 일관성을 높이세요.

오용 방지 : 위험하거나 사적인 내용, 또는 허용되지 않는 콘텐츠를 차단하는 안전 장치를 추가합니다.

책임성 확보 : 결과물을 초안으로 취급하고, 위험도가 높은 작업은 기록, 평가 후 담당자에게 전달하십시오.

이 글을 읽고 나서 읽어보시면 좋을 만한 글들:

🔗 생성 AI란 무엇인가
모델이 텍스트, 이미지, 코드 등을 생성하는 방식을 이해하세요.

🔗 인공지능은 과대평가된 것일까?
과대광고, 한계, 그리고 실제 영향에 대한 균형 잡힌 시각.

🔗 어떤 AI가 당신에게 적합할까요?
인기 있는 AI 도구들을 비교하고 자신에게 가장 적합한 것을 선택하세요.

🔗 AI 거품이 존재할까요?
주목해야 할 신호, 시장 위험, 그리고 향후 전망.


생성형 인공지능의 주요 목표는

가장 간결하고 정확한 설명을 원하신다면:

  • 생성형 인공지능은 데이터(언어, 이미지, 음악, 코드)의 "형태"를 학습합니다

  • 해당 모양과 일치하는 새로운 샘플을 생성합니다.

  • 이는 지시, 맥락 또는 제약 조건에 대한 응답으로 이루어집니다

네, 맞습니다. 문단을 작성하고, 그림을 그리고, 멜로디를 리믹스하고, 계약 조항을 작성하고, 테스트 케이스를 생성하고, 로고와 같은 것을 디자인할 수 있습니다.

인간처럼 "이해"해서가 아니라(이 부분은 나중에 자세히 다루겠습니다), 학습한 패턴과 통계적, 구조적으로 일관된 결과를 도출하는 데 능숙하기 때문입니다.

“갈퀴를 밟지 않고 이것을 사용하는 방법”에 대한 성숙한 틀을 원한다면 NIST의 AI 위험 관리 프레임워크는 위험 + 통제 사고를 위한 견고한 기준이 됩니다.[1] 그리고 일반적인 AI가 아닌 생성형 AI 위험에 특화된 것을 원한다면 NIST 는 시스템이 콘텐츠를 생성할 때 변경되는 사항을 더 자세히 다룬 GenAI 프로필도 게시했습니다.[2]

 

생성형 인공지능

사람들이 "생성형 인공지능의 주요 목표"에 대해 논쟁하는 이유는 뭘까요? 😬

사람들이 "목표"라는 단어를 서로 다른 의미로 사용하기 때문에 의사소통이 원활하지 못합니다

어떤 사람들은 이렇게 말합니다:

  • 기술적 목표: 현실적이고 일관성 있는 결과물 생성 (핵심)

  • 사업 목표: 비용 절감, 생산량 증대, 개인 맞춤형 경험 제공

  • 인간의 목표: 생각하고, 창조하고, 소통하는 속도를 높이는 것

네, 그 두 가지는 충돌합니다.

현실적으로 보자면, 생성형 AI의 주요 목표는 생성 , 즉 입력에 따라 이전에 존재하지 않았던 콘텐츠를 만들어내는 것 입니다

사업적인 문제는 하류에 있습니다. 문화적 혼란도 하류에 있죠 (죄송해요… 좀 그런 의미에서요 😬).


사람들이 GenAI를 오해하는 것(그리고 그것이 중요한 이유) 🧯

"이것은 아닙니다" 목록을 간단히 살펴보면 많은 혼란이 해소됩니다.

GenAI는 데이터베이스가 아닙니다

진실을 "찾아내는" 것이 아닙니다. 그럴듯한 출력을 생성합니다. 진실이 필요하면 근거(문서, 데이터베이스, 인용, 사람 검토)를 추가합니다. 그 차이가 기본적으로 신뢰성에 관한 전체 이야기입니다. [2]

GenAI는 자동으로 에이전트가 되는 것은 아닙니다

텍스트를 생성하는 모델이 안전하게 작업을 수행할 수 있는 시스템(이메일 전송, 기록 변경, 코드 배포 등)과 같은 것은 아닙니다. "지시사항을 생성할 수 있다"는 것과 "실행해야 한다"는 것은 서로 다른 개념입니다

GenAI는 의도가 아닙니다

의도적인 것처럼 들리는 콘텐츠를 만들어낼 수는 있지만, 그것이 실제로 의도를 가지고 있다는 것을 의미하는 것은 아닙니다.


훌륭한 생성형 AI란 어떤 특징을 가지고 있을까요? ✅

모든 "생성형" 시스템이 똑같이 실용적인 것은 아닙니다. 좋은 생성형 AI란 단순히 보기 좋은 결과물을 만들어내는 것이 아니라, 맥락에 맞게 가치 있고, 제어 가능하며, 안전한

좋은 버전은 다음과 같은 특징을 갖는 경향이 있습니다

  • 일관성 - 문장들이 서로 모순되지 않음

  • 접지 - 출력 결과를 신뢰할 수 있는 출처(문서, 인용문, 데이터베이스)에 연결할 수 있습니다. 📌

  • 제어 가능성 - 분위기 조성뿐 아니라 어조, 형식, 제약 조건까지 직접 조절할 수 있습니다.

  • 신뢰성 - 유사한 프롬프트는 유사한 품질을 제공하며, 무작위로 결과가 나오는 것이 아닙니다.

  • 안전 난간 - 위험하거나, 사적이거나, 허용되지 않는 출력을 설계상 방지합니다.

  • 솔직한 행동이란 사실 을 왜곡하는 대신 "잘 모르겠습니다"라고 말할 수 있는 것입니다.

  • 워크플로 적합성 - 이는 사람들이 일하는 방식에 맞춰 설계되었으며, 허황된 워크플로가 아닙니다.

NIST는 기본적으로 이 전체 대화를 "신뢰성 + 위험 관리"로 구성하는데, 이는… 모두가 더 일찍 했으면 좋았을 거라고 생각하는 매력적이지 않은 것입니다.[1][2]

완벽하지 않은 비유지만 (마음을 단단히 먹으세요): 훌륭한 생성 모델은 뭐든지 빠르게 준비할 수 있는 주방 보조와 같습니다… 하지만 가끔 소금과 설탕을 헷갈리기도 하죠. 그래서 라벨을 붙이고 맛을 봐야 디저트 스튜 같은 걸 내놓지 않을 수 있습니다 🍲🍰


간단한 일상용 미니 케이스 (복합 소재지만 아주 평범해요) 🧩

GenAI가 답변을 작성해 주기를 원하는 지원팀을 상상해 보세요

  1. 1주차: "모델이 티켓 문의에 답변하도록 하세요."

    • 결과물은 빠르고 확실하지만, 때로는 값비싼 오류를 초래할 수도 있습니다.

  2. 2주차: 승인된 문서에서 사실을 추출하는 검색 기능 템플릿 ("항상 계좌 ID를 요청하세요", "절대 환불을 약속하지 마세요" 등) 을 추가합니다

    • 오류 발생률은 감소하고 일관성은 향상됩니다.

  3. 3주 차: 고위험군에 대한 검토 절차 을 추가합니다

    • 이제 시스템을 배포할 수 있습니다.

그러한 진행 과정은 기본적으로 NIST의 실제적인 요점입니다. 모델은 단지 하나의 조각일 뿐이며, 그 주변의 제어가 모델을 충분히 안전하게 만듭니다. [1][2]


비교표 - 인기 있는 생성 알고리즘 (및 그 작동 원리) 🔍

가격은 끊임없이 변동하기 때문에 의도적으로 모호하게 유지했습니다. 또한, 카테고리가 겹치는 부분이 있습니다. 네, 불편하죠.

도구/접근 방식 청중 가격 (대략) 작동 원리 (그리고 작은 특이점)
일반 LLM 채팅 도우미 모두, 팀 무료 티어 + 구독 초안 작성, 요약, 브레인스토밍에 아주 좋아요. 가끔은 자신감 넘치지만 틀릴 때도 있죠… 마치 대담한 친구처럼요 😬
앱용 API LLM 개발자, 제품 팀 사용량 기반 워크플로에 쉽게 통합할 수 있으며, 검색 도구와 함께 자주 사용됩니다. 안전장치를 마련하지 않으면 문제가 발생할 수 있습니다
이미지 생성기(확산형) 크리에이터, 마케터 구독/크레딧 스타일과 변형에 강점을 보임; 노이즈 제거 스타일 생성 패턴을 기반으로 구축됨[5]
오픈소스 생성 모델 해커, 연구원 무료 소프트웨어 + 하드웨어 제어 및 맞춤 설정, 개인 정보 보호에 유리한 구성. 하지만 설치 과정이 복잡하고 (GPU 발열도 심함) 불편합니다
오디오/음악 생성기 음악가, 취미 생활자 크레딧/구독 멜로디, 음원, 사운드 디자인에 대한 빠른 아이디어 구상. 라이선스 관련 사항은 복잡할 수 있으니 약관을 꼼꼼히 읽어보세요
비디오 생성기 크리에이터, 스튜디오 구독/크레딧 빠른 스토리보드와 컨셉 영상. 장면 간 일관성 유지가 여전히 어려운 과제입니다
검색 증강 생성(RAG) 기업들 인프라 + 사용량 생성을 문서와 연결하는 데 도움이 됩니다. "가짜 내용"을 줄이기 위한 일반적인 제어입니다.[2]
합성 데이터 생성기 데이터 팀 기업형 데이터가 부족하거나 민감한 정보일 때 유용하지만, 생성된 데이터에 속지 않도록 검증이 필요합니다 😵

내부 작동 원리: 생성은 기본적으로 "패턴 완성"입니다 🧩

낭만적이지 않은 진실:

생성형 AI의 상당 부분은 "다음에 무엇이 올지 예측"하는 기능을 확장한 것에 불과하며, 그 결과 전혀 다른 것처럼 느껴집니다.

  • 텍스트에서: 시퀀스에서 다음 텍스트 덩어리(토큰과 유사)를 생성합니다. 이는 현대 프롬프트를 매우 효과적으로 만든 고전적인 자기회귀 설정입니다.[4]

  • 이미지의 경우: 노이즈로 시작하여 구조로 반복적으로 노이즈를 제거합니다(확산 계열 직관)[5]

그래서 프롬프트가 중요한 겁니다. 모델에게 부분적인 패턴을 제공하면 모델이 그걸 완성하는 거죠.

이것이 바로 생성형 인공지능이 다음과 같은 분야에서 뛰어난 이유입니다

  • “좀 더 친근한 어조로 써 주세요.”

  • "제목 10개를 제시해 주세요."

  • “이 메모들을 깔끔한 계획서로 바꿔보세요.”

  • "기본 코드 및 테스트 생성"

…그리고 다음과 같은 문제점을 야기할 수 있는 이유도 있습니다:

  • 근거 없는 엄격한 사실적 정확성

  • 길고 부서지기 쉬운 추론의 사슬

  • 다양한 결과물 전반에 걸쳐 일관된 정체성 유지 (캐릭터, 브랜드 보이스, 반복되는 세부 사항)

사람처럼 "생각하는" 것이 아닙니다. 그럴듯한 추론을 만들어내는 것이죠. 가치는 있지만, 기존 방식과는 다릅니다.


창의성 논쟁 - "창작" vs "리믹스" 🎨

여기 사람들은 지나치게 감정적으로 반응하는 경향이 있어요. 어느 정도 이해는 갑니다.

다음과 같은 이유로 창의적인 결과물 을 만들어내는 경우가 많습니다

  • 개념들을 결합하세요

  • 다양한 변수를 빠르게 탐색하세요

  • 표면적으로 놀라운 연관성

  • 소름 끼칠 정도로 정확하게 스타일을 모방하다

하지만 여기에는 의도가 없어요. 내면의 취향도 없고, "이건 나에게 중요해서 만들었어"라는 마음도 없어요

하지만 잠깐 다른 이야기를 해보자면, 인간도 끊임없이 리믹스를 합니다. 다만 각자의 경험, 목표, 취향을 반영해서 할 뿐이죠. 그러니 '리믹스'라는 용어는 여전히 논쟁의 여지가 있습니다. 실질적으로 리믹스는 창의적인 힘을 실어주는 수단 이고, 바로 그 점이 가장 중요한 부분입니다.


합성 데이터 - 조용히 저평가된 목표 🧪

생성형 인공지능의 놀랍도록 중요한 분야 중 하나는 실제 개인이나 극히 드문 민감한 사례를 노출하지 않고 실제 데이터처럼 작동하는 데이터를 생성하는 것입니다.

그것이 가치 있는 이유:

  • 개인정보 보호 및 규정 준수 제약(실제 기록 노출 감소)

  • 희귀 사건 시뮬레이션 (사기 예외 사례, 특정 파이프라인 실패 등)

  • 실제 데이터를 사용하지 않고 파이프라인 테스트하기

  • 실제 데이터셋 크기가 작을 때 데이터 증강

하지만 함정은 여전히 ​​함정입니다. 합성 데이터는 원본 데이터와 동일한 편향과 맹점을 조용히 재현할 수 있습니다. 이것이 바로 거버넌스와 측정이 생성만큼이나 중요한 이유입니다. [1][2][3]

합성 데이터는 디카페인 커피와 같아요. 겉보기엔 그럴싸하고 냄새도 좋지만, 생각했던 만큼의 효과는 없을 때가 있죠 ☕🤷


생성형 인공지능의 한계 - 무엇이 부족한가 (그리고 그 이유는 무엇인가) 🚧

만약 경고를 단 하나만 기억해야 한다면, 이것을 기억하십시오

생성형 모델은 유창한 무의미한 문장을 만들어낼 수 있다.

일반적인 고장 유형:

  • 환각 - 사실, 인용문 또는 사건을 확신에 차서 지어내는 것

  • 오래된 지식 - 스냅샷으로 학습된 모델은 업데이트를 놓칠 수 있습니다.

  • 즉각적인 변화에 민감함 - 작은 단어 변경으로도 출력 결과에 큰 변화가 발생할 수 있음

  • 숨겨진 편향 - 왜곡된 데이터에서 학습된 패턴

  • 과도한 순응 - 도울 필요가 없을 때조차 도우려 한다

  • 논리적 일관성 부족 - 특히 장시간 작업 시에 두드러짐

이것이 바로 "신뢰할 수 있는 AI"에 대한 논의가 존재하는 이유입니다. 투명성, 책임성, 견고성 및 인간 중심 디자인은 있으면 좋은 것이 아니라, 신뢰도 대포를 생산 현장에 배포하지 않도록 하는 방법입니다. [1][3]


성공 측정: 목표 달성 시점 파악 📏

생성형 AI의 주요 목표가 "가치 있는 새로운 콘텐츠 생성"이라면, 성공 지표는 일반적으로 두 가지 범주로 나뉩니다 .

품질 지표(인간 및 자동화 도구)

  • 정확성 (해당되는 경우)

  • 일관성과 명확성

  • 스타일 일치 (어조, 브랜드 보이스)

  • 완전성 (요청하신 내용을 모두 포함합니다)

워크플로우 지표

  • 작업당 절약되는 시간

  • 수정 횟수 감소

  • 품질 저하 없이 처리량 증가

  • 사용자 만족도 (정량화하기는 어렵지만 가장 중요한 지표)

실제로 팀들은 불편한 진실에 직면하게 됩니다

  • 이 모델은 "충분히 괜찮은" 초안을 빠르게 생성할 수 있습니다

  • 하지만 품질 관리가 새로운 병목 현상이 되고 있다

따라서 진정한 승리는 단순히 생성만이 아닙니다. 그것은 생성과 검토 시스템, 즉 검색 기반, 평가 스위트, 로깅, 레드팀, 에스컬레이션 경로… 현실을 만드는 모든 매력적이지 않은 것들을 포함합니다. [2]


후회 없이 사용할 수 있는 실용적인 가이드라인 🧩

생성형 AI를 단순한 재미를 넘어 본격적으로 활용하려면 몇 가지 습관을 들이는 것이 큰 도움이 됩니다

  • 체계적인 계획을 요청하세요: "번호가 매겨진 계획서를 먼저 주고, 그 다음 초안을 주세요."

  • 강제 제약 조건: "다음 사실만 사용하십시오. 누락된 정보가 있으면 무엇이 누락되었는지 명시하십시오."

  • 불확실성 요청: “가정 목록 + 확신도.”

  • 접지 사용: 사실이 중요할 때 문서/데이터베이스에 연결합니다[2].

  • 결과물을 초안으로 취급하세요. 아무리 훌륭한 결과물이라도 마찬가지입니다

가장 간단하면서도 가장 인간적인 방법은 바로 소리 내어 읽는 것입니다. 만약 로봇이 상사에게 잘 보이려고 애쓰는 것처럼 들린다면, 아마 수정이 필요할 겁니다 😅


마무리 🎯

생성형 인공지능의 주요 목표는 데이터 에서 패턴을 학습하고 그럴듯한 결과물을 생성함으로써 주어진 조건이나 제약에 맞는 새로운 콘텐츠를 만들어내는 것 입니다

강력한 이유는 다음과 같습니다

  • 초안 작성 및 아이디어 구상 속도를 높입니다

  • 저렴하게 다양한 변형을 만들어냅니다

  • 글쓰기, 코딩, 디자인 등 기술 격차를 해소하는 데 도움이 됩니다

위험한 이유는 다음과 같습니다

  • 사실을 자유자재로 조작할 수 있다

  • 편견과 맹점을 물려받는다

  • 심각한 상황에서 기초와 감독이 필요합니다[1][2][3]

제대로 사용하면 "대체 두뇌"라기보다는 "터보가 달린 엔진"에 가깝습니다. 하지만
잘못 사용하면 업무 흐름에 대한 자신감을 떨어뜨리는 무기가 될 수 있으며, 이는 금세 큰 손실로 이어집니다 💥


자주 묻는 질문

일상적인 언어로 설명하자면, 생성형 인공지능의 주요 목표는 무엇인가요?

생성형 인공지능의 주요 목표는 기존 데이터에서 학습한 패턴을 기반으로 새롭고 그럴듯한 콘텐츠(텍스트, 이미지, 오디오 또는 코드)를 생성하는 것입니다. 데이터베이스에서 "진실"을 검색하는 것이 아니라, 사용자의 요청과 제공하는 제약 조건에 따라 이전에 학습한 내용과 통계적으로 일관된 결과물을 만들어내는 것입니다.

생성형 인공지능은 어떻게 주어진 프롬프트로부터 새로운 콘텐츠를 생성할까요?

많은 시스템에서 생성 과정은 대규모 패턴 완성 방식과 유사하게 작동합니다. 텍스트의 경우, 모델은 시퀀스에서 다음에 올 내용을 예측하여 일관성 있는 연속성을 만들어냅니다. 이미지의 경우, 확산형 모델은 종종 노이즈에서 시작하여 반복적으로 노이즈를 제거하면서 구조를 형성합니다. 제공된 프롬프트는 부분적인 템플릿 역할을 하며, 모델은 이를 완성합니다.

생성형 인공지능은 왜 때때로 사실을 그토록 확신에 차서 지어내는 걸까요?

생성형 AI는 사실적 정확성을 보장하는 것이 아니라, 그럴듯하고 유창한 결과물을 만들어내는 데 최적화되어 있습니다. 따라서 그럴듯하게 들리는 허황된 내용, 조작된 인용문, 또는 잘못된 사건을 생성할 수 있습니다. 정확성이 중요한 경우에는, 특히 위험도가 높거나 고객과 직접 소통해야 하는 업무의 경우, 신뢰할 수 있는 문서, 인용문, 데이터베이스 등의 근거 자료와 사람의 검토가 반드시 필요합니다.

"접지"란 무엇을 의미하며, 언제 사용해야 할까요?

접지(Grounding)란 모델의 출력값을 승인된 문서, 내부 지식 기반 또는 구조화된 데이터베이스와 같은 신뢰할 수 있는 정보원에 연결하는 것을 의미합니다. 사실 정확성, 정책 준수 또는 일관성이 중요한 모든 상황, 예를 들어 지원 답변, 법률 또는 재정 관련 초안, 기술 지침 또는 오류 발생 시 실질적인 피해를 초래할 수 있는 모든 상황에서 접지를 사용해야 합니다.

생성형 AI의 결과물을 더욱 일관성 있고 제어 가능하게 만들려면 어떻게 해야 할까요?

명확한 제약 조건을 추가하면 통제력이 향상됩니다. 필수 형식, 허용되는 사실, 어조 지침, 그리고 명확한 "해야 할 일/하지 말아야 할 일" 규칙 등이 이에 해당합니다. 템플릿("항상 X를 요청하세요", "절대 Y를 약속하지 마세요")이나 구조화된 지침("번호가 매겨진 계획을 제시한 다음 초안을 제출하세요")도 도움이 됩니다. 모델에게 가정과 불확실성을 나열하도록 요청하는 것도 과도한 확신에 찬 추측을 줄이는 데 효과적입니다.

생성형 인공지능은 행동을 취할 수 있는 에이전트와 같은 것인가요?

아니요. 콘텐츠를 생성하는 모델이 이메일 전송, 기록 변경 또는 코드 배포와 같은 작업을 자동으로 실행해야 하는 시스템은 아닙니다. "지시사항을 생성할 수 있다"는 것과 "실행해도 안전하다"는 것은 다릅니다. 도구 사용이나 자동화를 추가하는 경우, 일반적으로 위험 관리를 위해 추가적인 안전장치, 권한 관리, 로깅 및 에스컬레이션 경로가 필요합니다.

실제 워크플로우에서 "좋은" 생성형 AI 시스템을 만드는 요소는 무엇일까요?

훌륭한 시스템은 단순히 인상적인 것만이 아니라, 해당 맥락에서 가치 있고, 제어 가능하며, 안전해야 합니다. 실질적인 요소로는 일관성, 유사한 프롬프트 전반에 걸친 신뢰성, 신뢰할 수 있는 출처에 대한 근거, 허용되지 않거나 개인적인 콘텐츠를 차단하는 안전장치, 그리고 불확실한 상황에서의 솔직함 등이 있습니다. 검토 과정, 평가 및 모니터링을 포함한 주변 워크플로 또한 모델만큼이나 중요합니다.

가장 큰 한계점과 주의해야 할 실패 요인은 무엇인가요?

일반적인 실패 원인으로는 착각, 오래된 지식, 즉각적인 변화에 대한 취약성, 숨겨진 편견, 과도한 순응, 장기 작업에 대한 일관성 없는 추론 등이 있습니다. 결과물을 초안이 아닌 완성된 작업으로 취급할 경우 위험이 증가합니다. 실제 운영 환경에서는 민감한 범주의 경우, 팀에서 검색 근거 마련, 평가, 로깅, 그리고 사람 검토 등의 절차를 추가하는 경우가 많습니다.

생성형 인공지능을 활용하여 합성 데이터를 생성하는 것은 언제 효과적인가요?

합성 데이터는 실제 데이터가 부족하거나, 민감하거나, 공유하기 어려운 경우, 또는 드문 사례를 시뮬레이션하거나 안전한 테스트 환경이 필요한 경우에 유용할 수 있습니다. 실제 기록 노출을 줄이고 파이프라인 테스트 또는 데이터 증강을 지원할 수 있습니다. 하지만 합성 데이터도 원본 데이터의 편향이나 사각지대를 재현할 수 있으므로 검증이 필요합니다.

참고 자료

[1] NIST의 AI RMF - AI 위험 및 통제 관리 프레임워크. 자세히 보기
[2] NIST AI 600-1 GenAI 프로파일 - GenAI 관련 위험 및 완화 지침(PDF). 자세히 보기
[3] OECD AI 원칙 - 책임 있는 AI를 위한 고수준 원칙 모음. 자세히 보기
[4] Brown 외 (NeurIPS 2020) - 대규모 언어 모델을 사용한 소량 프롬프트에 대한 기초 논문(PDF). 자세히 보기
[5] Ho 외 (2020) - 노이즈 제거 기반 이미지 생성을 설명하는 확산 모델 논문(PDF). 자세히 보기

최신 AI 기술을 공식 AI 어시스턴트 스토어에서 만나보세요

회사 소개

블로그로 돌아가기