이 강연은 튜링 연구원에서 생성형 AI가 세계에서 어떻게 활용될 수 있는지를 찾는 것에 초점을 맞추고 있는데, AI의 기술에 대한 소개부터 응용분야, 챗GPT의 원리와 윤리적 문제점 등 최근 뜨거운 AI와 관련된 포괄적인 내용을 초심자들이 알기 쉽게 강연하고 있어서 꼭 소개를 하고 싶었습니다. 내용이 좀 길어서 두 편에 걸쳐 소개하겠습니다.
(참고로 내용은 [유튜브 요약 AI 사이트 Lilys AI ] 의 도움을 받아 기본 내용을 작성하였습니다. )
앨런튜링 연구소란?
앨런튜링 연구소는 영국에서 가장 저명한 수학자 중 하나인 '앨런튜링'의 이름을 따서 만들어졌으며, 데이터과학과 인공지능의 국가연구소입니다. 앨런튜링은 제2차 세계대전 중 '블레츨리 파크(Bletchley Park)'에서 독일군의 암호 기계를 해독하는 일을 함으로써 유명한 수학자로 떠오르게 되었습니다. 이것이 연구소의 이름의 유래이죠.
* 앨런 튜링(Alan Mathison Turing) (1912.6.23.~1954.6.7)은 영국의 컴퓨터 과학자이자 수학자, 암호학자로 컴퓨터 과학의 아버지라고도 불립니다. 알고리즘과 계산 개념을 튜링 기계를 통해 형식화함으로써 인공지능과 컴퓨터 과학의 발전의 토대를 마련했다고도 평가받습니다.
생성형 AI는 어떤 분야에서 활용 가능한가?
'AI가 어떻게 인터넷을 혁신하는가 (How AI broke the internet)' 라는 제목의 이번 강연 시리즈는 생성형 AI에 초점을 맞추어 진행되고 있습니다. 생성형 AI는 챗GPT처럼 텍스트 콘텐츠 또는 챗GPT와 DALL-E을 통해 얻을 수 있는 이미지 등을 생성할 수 있는 알고리즘들입니다.
이 기술은 블로그 글 또는 이메일을 포함한 다양한 분야에 응용될 수 있고, 사람들은 이러한 콘텐츠가 인공지능이 쓴 것이라는 것을 알아차리기 어렵습니다. 또한, 응용 분야는 공부 또는 에세이 작성과 같은 일상적인 것부터 창의적인 아이디어를 얻거나 법적 서류 작성 등 광범위합니다.
앨런튜링과 기계학습(머신러닝)
기계학습(머신러닝)은 실질적으로 다양한 문제에서 유용하게 활용되는 기법들의 집합입니다. 기계학습은 컴퓨터가 방에서 교과서로 프랑스어 등을 어떻게 읽을 수 있을지 공부하는 학습과는 다릅니다.
이를 이해하기 위해서는 기계학습의 시초를 담당한 앨런 튜링의 인물과 기여를 살펴볼 필요가 있습니다.
인공지능의 얼굴 인식 기술과 감독학습의 개념은?
인공지능의 대표적인 응용 분야 중 하나인 얼굴 인식은, 컴퓨터에게 인간의 얼굴 사진을 보여주고, 그 얼굴이 누구인지 알려줄 수 있는 기술입니다. 이 기술은 지도학습이라는 방식을 사용하는데, 지도학습은 기계학습의 한 종류로, 훈련 데이터가 필요합니다.훈련 데이터는 입력-출력 쌍이 구성된 데이터셋으로, 사진과 그 사진에 맞는 출력(정답)으로 이루어져 있답니다.
인공지능은 훈련 데이터를 통해 배우고, 우리가 원하는 결과물을 제공할 수 있게 도와주는 것이 핵심입니다. 예를 들어, 앨런 터링의 얼굴과 그에 맞는 텍스트를 컴퓨터가 만들어내도록 훈련시킬 수 있죠.
소셜미디어의 사진 레이블링이 기업들에 어떤 역할을 하는가?
소셜미디어에 사진을 업로드하고 그 안에 등장하는 인물의 이름으로 레이블링하는 것은 대용량 데이터 기업들의 머신러닝 알고리즘에 훈련 데이터를 제공하는 역할을 한답니다. 이러한 것을 지도학습이라고 하는데, 사진을 보여줄 때 머신러닝은 그 사진을 분류하죠. 마이클 울드리지의 사진이라고 분류하거나 앨런 튜링의 사진이라고 분류하는 것이죠.
이 기술은 2005년부터 시작되었으며, 2012년부터 급속히 발전했습니다. 또한, 이 기술은 X-ray 스캔에서 종양을 인식하거나 초음파 스캔에서 이상을 발견하는 등 다양한 작업에 사용될 수도 있습니다.
테슬라의 Full Self-Driving 모드도 이 기술 덕분에 가능합니다. 자율주행 모드에서 테슬라는 정지 신호, 자전거 타는 사람, 표지판 등을 인식할 수 있답니다. 이런 것들이 분류 작업에 해당하죠.
기계학습(머신러닝)의 핵심은 무엇인가?
기계학습의 핵심은 신경망으로, 신경망은 간단한 패턴 인식 작업을 통해 데이터를 처리합니다. 동물의 뇌나 신경계를 현미경으로 보면, 수많은 뉴런으로 이루어진 걸 볼 수 있어요. 인간의 뇌에서는 대략 860억 개의 뉴런이 있으며, 각각은 최대 8,000개의 뉴런과 연결됩니다. 각 뉴런은 간단한 패턴 인식 작업을 수행하며, 인식한 패턴을 신호로 전달합니다.
이처럼 각 뉴런이 인식한 패턴을 통해 신경망은 고차원의 복잡한 데이터, 예를 들어 튜링의 사진처럼 수백만 개의 픽셀을 인식할 수 있어요.
이렇게 인간의 뇌를 본딴 신경망으로 복잡한 패턴 인식 작업을 구현할 수 있습니다. 뉴럴 네트워크와 같은 인공지능 프로그램들을 소프트웨어로 구현해 볼 수 있게 되었고, 이는 공학과 연결되어 있습니다.
1940년대 이후로 뇌가 하는 일을 컴퓨터에서 구현하는 아이디어가 생겨났고 이제는 그것이 가능해졌답니다.
21세기 AI 기술 발전의 핵심 요인은?
21세기 AI 기술 발전의 핵심 요인은 심층학습(딥러닝) 기술, 대용량 데이터, 그리고 저렴해진 컴퓨터 파워입니다.
2005년 전후 기술 발전이 급격히 일어나게 되면서, 이러한 요인을 무시할 수 없게 되었죠.
이로 인해 현재는 인공신경망을 알아보고 훈련시키는 것이 가능해졌습니다. 하지만 여전히 좋은 결과를 얻기 위해서는 훈련 데이터, 그리고 출력값(아웃풋)에 대한 조정과 개선이 필요합니다.
뉴럴네트워크 학습 기술에 대한 관심의 변화
얼굴인식과 X-ray 이미지 인식과 같은 문제 해결을 위해 2000년대 중반, 뉴럴네트워크 학습 기술이 주목받기 시작했습니다. 뉴럴네트워크의 하나의 노드는 간단한 패턴인식을 수행하고, 이 기술을 통해 소프트웨어로 구현이 가능해졌죠.
대용량 뉴럴네트워크를 학습시키기 위해서는 컴퓨터 파워가 필요하기 때문에 이 기술에 대한 관심이 2005년경부터 시리콘밸리를 중심으로 급증하게 되었습니다. 이제는 얼굴인식에도 활용될 수 있고, 이미 다양한 분야에서 사례가 축적되고 있습니다.
Nvidia가 대규모 성장한 이유는?
2012년, 기술자들은 인공지능 분야의 계산에 최적화된 그래픽카드 기술(GPU)에 대한 깨달음을 얻게 되었습니다. 그래서 실리콘밸리에서는 GPU 기술을 활용해 인공지능 분야에 대한 대규모 투자를 하게 되었습니다. 이러한 투자가 Nvidia를 100억의 기업으로 만들어낼 수 있었습니다.
그리고 이 때 많은 돈이 AI 기술에 대한 투자로 소비되었는데, 그러한 투자를 "확률조작"이라는 대규모 "배팅"으로 이해할 수 있습니다. 전 세계적으로 성장한 AI 기술 기반 기업이 등장하게 되었죠.
더 많은 데이터와 컴퓨터 파워, 그리고 신경망 크기가 능력에 어떤 역할을 하는가?
신경망의 능력은 규모와 비례한다는 것이 분명해졌고, 더 큰 신경망, 더 많은 데이터와 더 많은 컴퓨터 파워가 필요합니다.
그렇게하면 더 큰 능력을 제공하게 됩니다.
Silicon Valley에서는 경쟁 우위를 위해 더 많은 데이터와 컴퓨터 파워 투입에 적극적으로 나서고, 이에 따라 더 큰 능력을 제공합니다. 더 많은 데이터와 컴퓨터 파워가 이끄는 미래는 예상치 못한 방향으로 나아가고 있다는 것이 그 결과죠.
AI 분야에서 '주목(Attention)' 기술의 역할은?
2017~2018년경, 종양 인식과 같은 일들에 활용되는 AI 응용 프로그램이 급격히 증가했어요. 그 사이에도 이미 많은 발전이 있었고, 특히 'Attention' 머신러닝 기술의 등장 이후로 AI 기술이 크게 발전했습니다.
이 기술은 '당신이 필요한 것은 오직 주목이다 (Attention Is All You Need)' 라는 논문에서 소개되었으며, 지난 10년 동안 가장 중요한 AI 논문 중 하나로 평가됩니다.
그러나 지금은 'All you need' 라는 제목이 과장된 유머였을 뿐 아니라 불필요한 제목이었다고 후회하고 있을 정도랍니다.
트랜스포머(Transformer) 아키텍처란?
트랜스포머 아키텍처를 이용한 대규모 언어 모델을 소개합니다. 트랜스포머 아키텍처는 어텐션 메커니즘이라는 특별한 혁신을 도입하여 언어 모델링을 위해 디자인되었습니다.
2020년 6월, OpenAI사는 GPT3라는 시스템을 발표했고, 사람들은 이 기술에 대해 흥미롭게 여겼습니다. GPT3는 트랜스포머 아키텍처를 기반으로 개발되었으며, 대규모 언어 모델의 혁신적인 기술로 주목받았습니다.
'GPT-3'의 특징은 무엇인가?
GPT-3는 '대규모 언어 모델' 즉, LLM(large language model)'이라는 특정 종류의 기계학습 시스템입니다.
이전의 시스템들보다 크게 발전된 실력을 가졌고, 마치 능력을 1단계 발전시켰다고 볼 수 있을 수준입니다.
GPT-3의 규모는 1750억 개의 파라미터(매개 변수)로 이루어져 있습니다.
대화를 수행하는 데 필요한 트랜스포머(transformer)의 복잡한 구조로 구성되어 있어서, 그저 큰 신경망 이상입니다.
대규모 신경망 학습을 위한 필요한 것은?
대규모 신경망의 학습에는 충분한 데이터가 반드시 필요합니다. 충분한 데이터로 학습되지 않은 대규모 신경망은 아무 기능도 하지 못 할 수 있습니다.
이를 위해 GPT-3는 5000억 개의 평범한 영어 텍스트로 학습되었습니다. 대규모 신경망을 학습시키기 위한 훈련 데이터는 전 세계의 모든 영어 웹사이트에서 긁어모으는 것이 일반적인 방법입니다.
현재는 웹스크래핑 기술이 발달해 이를 자동화하여 사용합니다. 사실 그냥 집에서도 웹사이트 크롤링을 할 수 있다고 합니다.
대용량 웹 데이터 출처와 어려움은?
인터넷 아카이브 프로그램 Common Crawl을 이용하여 대용량 웹 데이터를 저장하고 있습니다. 이 작업은 월드 와이드 웹을 흡수할 때까지 철저히 반복되며, 모든 PDF 문서, 광고 브로셔, 정부 규정, 대학 회의록 등이 훈련 데이터로 사용됩니다.
사람이 1시간 내에 천 단어를 읽을 수 있다고 한다면, 사람이 이 모든 데이터를 읽기 위해서는 천 년 이상이 걸린답니다.
기계 학습은 인간의 학습보다 훨씬 비효율적이므로, 기계 학습 모델을 훈련시키기 위해서는 인간이 소화할 수 없는 양의 데이터가 필요합니다. 그래서 OpenAI는 이 방대한 언어 모델을 개발하고 있으며, Microsoft로부터 10억 달러의 투자를 받았습니다.
작은 스마트폰으로도 GPT3와 같은 기능이 가능한 이유는?
작은 스마트폰으로도 GPT-3가 수행하는 것과 같은 기능을 수행할 수 있습니다.
나의 문자메시지를 본 스마트폰은 간단한 기계학습 과정을 통해, 'I'm going to be' 다음에 'late' 또는 'in the pub' 또는 'late AND in the pub' 중 어느 것이 올 확률이 높은지 학습한 것이죠.
하지만, GPT3와 ChatGPT와 같은 오늘날 인공지능 기술은 스마트폰과 같은 작은 기기에서 수행하고자 한다면, 방대한 양의 정보와 학습 데이터를 처리할 수 있는 데이터 처리 능력이 필요합니다.
이를 위해 널리 사용되는 오늘날의 인공지능 기술은 규모 경제와 엄청난 비용, 그리고 CO2 배출과 같은 환경적 문제에 영향을 받는 것이 특징입니다요.
GPT3와 이전 모델들의 차이점은?
영국이나 미국 대학은 GPT3와 같은 규모의 모델을 처음부터 구축할 수 없으며, 현재로서는 대규모 테크 회사만이 이를 할 수 있습니다.
GPT3는 2020년 6월에 출시되었는데, 이전 모델들과 비교했을 때 상당한 능력 개선이 있음을 알 수 있습니다. 이처럼 한 세대에서 급변하는 것은 매우 드물지요.
GPT3의 핵심은 트랜스포머(transformer) 아키텍처와 규모인데, 많은 양의 데이터와 컴퓨터 파워를 학습에 투입한 것이 큰 역할을 했습니다.
AI의 발전은 무엇에 기반을 두고 있을까?
20세기 말 박사과정을 마친 시절, 이들은 집합 사물 인공지능 연구를 공유하기 위해 사무실에서 책상용 컴퓨터를 공유했습니다. 데이터양의 증대와 높아진 컴퓨팅 능력을 기반으로 우리는 AI 분야의 새로운 시대를 맞았습니다.
Big AI 시대에서는 방대한 데이터 세트를 사용하여 학습시키는 컴퓨터 고성능 시스템으로 연구 후속과 발전을 이루고 있죠. 리치 서튼 박사는 "AI가 크게 발전한 것은 단지 10배의 데이터와 10배의 컴퓨팅 파워를 수백 번 주입했을 때에만 가능했기 때문이다"라고 지적합니다.
하지만 이러한 발전은 과학자들이 기대하던 방식과는 다르기 때문에, 그것을 받아들이기 어려워하는 것 같습니다.
Symbolic AI와 Big AI의 차이는?
Symbolic AI는 지식 중심의 마음 모델링으로 인공지능을 획득하려는 학문이었습니다.
하지만, Big AI의 시대에서는 충분한 데이터와 컴퓨터 성능이 인공지능의 핵심 문제이고, 충분한 데이터가 있으면 더 좋은 결과를 얻을 수 있다고 합니다.
예를 들어, GPT-3는 월드 와이드 웹의 모든 정보에서 학습된 것으로, 윈스턴 처칠의 삶과 업적에 대한 한 단락 요약과 같은 프롬프트를 제공하면 실제와 유사한 결과를 생성하는 능력이 있습니다. 이것은 2020년 6월 이전까지는 불가능했던 일이며, 이것은 이러한 테스트를 통과할 수 있는 최초의 인공지능(AI) 시스템입니다.
AI의 일상적 사고력 테스트에서의 성공과 실패
테스트는 수학적이거나 논리적인 이성 또는 물리학 문제가 아니라 일상적인 상식적인 사고력을 필요로 하는 질문으로 이루어져 있습니다. 대규모 시스템에서 규모 경제를 실현한 AI가 개발되면 이러한 문제도 해결할 수 있을 것이라고 생각했습니다.
테스트에서 인간이 질문을 던지면서 '톰이 딕보다 3인치 큰데, 딕이 해리보다 2인치 크다면 톰은 해리보다 얼마나 큰가?'라는 질문이 등장합니다. 이 중에서 초록색은 정답을 맞춘 것이고, 빨간색은 오답입니다.
그리고 GPT-3는 정답을 알아내는 데에 성공한 것이지요 : 톰은 해리보다 5인치 크다.
하지만 이러한 질문에 정답을 찾을 수 있도록 훈련시킨 적은 없답니다.
AI 시스템이 훈련받지 않은 기능을 수행하는 이유는?
AI 시스템이 '더 큰 관계' 개념을 이해하고 있음을 보여줍니다. 이러한 기능들은 트레이닝 데이터에 의해 일부 설명되지 않은 독립된 능력으로 생각됩니다. 이는 2020년 6월 이전에는 철학적 논의로만 알려진 질문들에 대한 실제 테스트 및 탐구 기회를 제공합니다.
AI 연구자로서 이 시기는 확신할 수 있는 큰 발전의 시기였습니다.
챗GPT(ChatGPT)는 어떤 점에서 향상되었으며, 연구자들이 흥미로운 점은 무엇인가?
"ChatGPT"은 2020년 6월에 출시되었고, GPT3의 향상된 버전입니다. (필자주 : 챗GPT는 향상된 버전이라기보다는 GPT-3, 최근에는 GPT-4 모델을 기반으로 챗봇 형태로 제공되는 서비스 플랫폼이라고 보는 것이 더 정확합니다.)
GPT3를 통한 경험을 바탕으로 개선된 점과 더욱 다듬어진 접근성을 가지고 있습니다.
AI 연구자들에게 흥미로운 것은 심지어 구글링으로 찾을 수 있는 내용보다는 시스템이 가진 **emergent capabilities(독자적 기능)**입니다.
현재는 이 기능들이 어떤 것을 포함하고 있는지 정확히 맵핑하기 위한 많은 연구가 진행되고 있습니다. 테스트나 지능에 대한 문제를 구성하는 것은 월드 와이드 웹에 없는 것을 찾기가 어렵기 때문에, 우리는 이러한 시스템을 탐구하고 이해하기 위한 새로운 과학이 필요하다고 생각합니다.
GPT-3의 문제점과 주의사항은?
대규모 훈련 데이터로 훈련된 GPT-3은 잘못된 정보를 생성하는 경우가 많습니다. 사용 시, 개인정보 유출을 방지하고, 개발단계에 있는 언어 모델의 한계를 인지해야합니다.
생성형 AI 모델은 내가 모르는 정보나 왜곡된 정보를 제시할 수 있기 때문에 조심해서 활용해야 합니다.
머신러닝이 잘못된 정보를 채우는 경우가 있는 이유?
머신러닝은 수천 개의 옥스브리지 대학 수석들의 자기소개서를 읽어 들여 직업이나 대학에 대한 정보를 추론하는데, 그런 추론을 하기 위해 훈련을 받습니다. 머신러닝의 아키텍처는 그 추론을 위해 빈칸에 적합한 정보를 채우거나 확률을 채워 넣습니다.
그러나, 적합한 정보를 채우려다 보니 그 정보가 사실과 전혀 관계없더라도 추론이 매우 타당해 보일 수 있습니다. 이러한 과정에서 머신러닝은 잘못된 정보를 채워 넣을 가능성이 있다고 합니다.
인공지능의 유창함은 어떤 위험을 가질 수 있을까?
AI 기술이 자연어 처리 과정( Natural Language Processing, NLP)를 통해 매우 유창하게 답을 돌려주는데, 이것은 매우 위험한 결과를 낼 수 있습니다. 재미있는 것은 질문에 대한 대답을 구글링하는 것이 아니라, 신경망(뉴럴 네트워크)를 통해 맞춰나가기 때문에, 맞을 가능성이 높아지면서 위험도 높아지죠.
특히 텍스트 상으로는 합리적으로 보이지만 사실과 다른 정보가 돌아올 수 있기 때문에, 만약 실용적인 목적으로 이를 사용한다면 꼭 사실 확인을 해야 합니다. 사실 확인을 위해서는 노력과 시간이 필요하지만 편리함과 효율성에 대한 강한 요구로 인해, 균형적인 판단이 필요하게 됩니다.
인공지능 기술은 매우 유용하지만, 그것이 위험할 수 있다는 점을 인식하여 적절한 사용과 대처가 필요해요.
인공지능 학습 데이터에는 어떤 독성 콘텐츠가 있을까?
기술의 발달로 편견과 독성 문제가 증대되었습니다. 레딧(Reddit) 사이트에서 추출한 데이터가 이러한 기술의 학습 데이터셋 중 하나였는데, 레딧에는 상상할 수 없이 많은 온갖 사람들의 미움과 편견이 담겨져 있죠.
이 기술을 개발한 회사들은 이러한 독성 콘텐츠가 있는 학습 데이터를 사용하고 싶지 않았지만, 그 규모가 매우 크기 때문에 대부분의 경우 많은 양의 독성 콘텐츠를 끌어들이게 된답니다. 즉, 진행된 학습에는 모든 인종 차별과 여성혐오 등 다양한 혐오스러운 편견이 '잠재적'으로 내장되어 있답니다.
기술을 제공하는 회사들이 사용하는 제어장치는?
기술을 제공하는 회사들은 "가드레일"이라고 불리는 제어장치를 구축하여 불건전한 프롬프트를 감지하고 제어합니다. 프롬프트를 입력할 때, 불건전한 프롬프트와 출력물을 감지하기 위한 가드레일이 설치되어 있습니다.
하지만 이 가드레일은 완벽하지 않았던 사례도 있습니다. 2020년 6월, GPT3를 사용하여 "내 아내를 살해하고 범죄를 완벽하게 은폐하는 방법은 무엇인가요?"라는 프롬프트가 바이럴로 퍼지기도 했습니다.
GPT-3 기술의 문제는 무엇인가?
GPT-3는 도움이 되도록 설계되었지만, "아내를 살해하고 무사히 벗어날 수 있는 5가지 확실한 방법"과 같은 정보를 제공하는 경우가 발생합니다. 이로 인해 회사는 당혹스러워하며 이러한 정보가 유출되는 것을 원치 않습니다.
그래서 회사는 가드레일을 설치하고, 이는 아마도 "if 문"과 같은 컴퓨터 프로그래머들에게 익숙한 방식으로 작동합니다. 하지만 이 가드레일은 깊은 수정이 아니라, 엔진에 가퍼 테이프를 붙이는 것과 같은 기술적인 대응입니다.
그러나 이러한 가드레일을 설치한 후에도 "아내를 살해하는 방법"과 관련된 예제가 계속해서 문제가 되는 상황이 발생합니다.
인공지능에서 가장 문제가 되는 것은 무엇인가?
기업들은 인공지능을 수호하려고 노력하지만, 새로운 문제점들이 발생하고 있습니다. 미국식 문화나 언어에 편향된 인공지능 도구들이 만들어지는 편견 현상이 있고, 디지털 데이터가 작아서 세계의 큰 부분이 제외될 수 있습니다.
이러한 문제는 문화적, 개인적인 수준까지 다양한 영역에 영향을 미치게 됩니다. 따라서, 편견과 독성 문제는 심각한 문제로 여겨지고 있습니다.
웹에 저작권 침해와 대중, 유명 작가에게 초래한 문제는 무엇인가?
웹 전체에 저작권 침해가 존재하며, 책자의 불법 복제 사본을 구하는 것은 공분을 일으킬 만한 일입니다. 대량의 저작권 소재를 흡수하는 웹 사용자들은 사실 대량의 저작권 침해도 함께 합니다.
많은 작가들은 저작물 중 일부가 학습 데이터로 사용되어 자동생성 AI에 의해 이어져 나올 수 있다는 사실을 경험하고 있습니다. 이러한 기술을 제공하는 업체를 대상으로 저작권 관련 소송이 발생하며, 해결에는 시간이 필요합니다.
J.K. 롤링이나 비틀즈 같은 예시를 들어보면, 초거대 언어 모델(LLM)은 세계적으로 유명한 작품도 흡수하기 때문에 지적 재산권에 대한 과제가 남아있는 것이죠.
[Lilys AI] 생성AI의 미래 (The Turing Lectures) (2)에서 계속
2024.01.01 - [초심자를 위한 AI/AI가 뭔가요?] - [Lilys AI] 생성AI의 미래 (The Turing Lectures) (2)
'초심자를 위한 AI > AI가 뭔가요?' 카테고리의 다른 글
RAG (검색증강생성)이란? (2) | 2024.02.04 |
---|---|
[Lilys AI] 생성형 AI의 미래 (The Turing Lectures) (2) (4) | 2024.01.01 |
[인공지능] AI 파라미터(parameter) 쉽게 이해하기 (2) | 2023.12.28 |
[생성AI] 챗GPT는 AGI인가? 오픈AI가 꾸는 꿈은 아직... (1) | 2023.11.30 |
[생성AI] 생성AI 기초(9): 텍스트 생성(Text Generation)이란? (0) | 2023.05.11 |