ChatGPT는 지난해 11월 출시 이후 이례적인 인기몰이를 하고 있다. 챗봇인 이 인공지능 프로그램은 인생에 대한 거대한 질문과 사소한 문제에서부터 대학 에세이, 허구적인 이야기, 심지어 입사 지원서까지 작성할 수 있다. ChatGPT는 인간 전문가들의 세심한 지도와 함께 인터넷의 엄청난 양의 텍스트에서 얻은 것을 끌어냄으로써 이러한 작업을 수행한다. 최근 몇 주 동안 수백만 명의 사람들이 ChatGPT에 이러한 질문들을 던지고 답을 받았다. 그 답들은 때때로 아주 틀리더라도 자신감 있고 유창하게 쓰여 있다. 대규모 언어모델(large language model, LLM)로 알려진 AI는 책, 대화, 웹 기사의 형태로 수천억 단어를 공급받으며, 여기서 그것은 통계적인 확률에 기초한 단어와 문장의 모델을 구축한다. 이 프로그램은 휴대폰의 자동완성과 약간 비슷하지만, 한 단어가 아닌 전체 응답을 생성할 수 있도록 대규모로 확장되었다. 하지만 이 프로그램은 적지 않은 문제를 드러내고 있다. ChatGPT는 2021년 이후 데이터가 업데이트되지 않았기에 그 이후의 세계에 대해 무지하며, 그것이 제공하는 답이 정답이라는 보장도 없다. ChatGPT는 때때로 그럴듯하게 들리지만 부정확하거나 무의미한 답변을 작성하며, 무엇이 진실이고 거짓인지 모르고 허위 정보를 매우 자신 있게 제공할 수 있다는 문제점을 안고 있다. 김치찌개 조리법을 모르고, 고궁이나 좋은 등산로가 무엇인지 몰라도 그럴듯한 대답을 제공할 수 있다는 것이다. 또한 광범위한 텍스트에 기반하고 있기 때문에 자칫 의도치 않은 표절을 야기할 수도 있다. 더 큰 우려는 LLM에 기초한 인공지능 프로그램이 창의적이고 지식기반의 노동을 위협하고 일자리를 앗아갈 수 있다는 것이다. 그 문제가 무엇이든 우리는 지금 커다란 변화의 길목에 서있다. 과연 LLM과 같은 AI 도구는 인간의 미래, 아니 현재에 어떤 영향을 미칠 것이며 미치고 있는가? 이 글은 5명의 인공지능 전문가들의 의견을 담은 The Conversation 2023년 1월 11일 기사 AI and the future of work: 5 experts on what ChatGPT, DALL-E and other AI tools mean for artists and knowledge workers의 번역으로 AI 도구가 창의적 지식노동에 미치는 미래에 대해 답하고 있다.
AI와 일의 미래: 5명의 전문가가 ChatGPT, DAL-E 및 기타 AI 도구가 아티스트와 지식 노동자에게 어떤 의미를 갖는지에 대해 논하다
모두를 위한 창의성 – 그러나 기술 상실?
Lynne Parker(테네시 대학교 부총장)
대규모 언어 모델(large language model)은 창의성과 지식 작업을 모든 사람이 접근할 수 있게 만들고 있다. 인터넷에 연결된 모든 사람은 이제 ChatGPT 또는 DALL-E 2와 같은 도구를 사용하여 예를 들어 텍스트 요약을 생성하여 자신을 표현하고 거대한 정보 저장소를 이해할 수 있다.
특히 주목할 만한 것은 대규모 언어 모델이 보여주는 인간과 같은 전문 지식의 깊이이다. 초보자들은 몇 분 만에 비즈니스 프레젠테이션을 위한 삽화를 만들고, 마케팅 광고를 만들고, 작가의 한계를 극복하기 위한 아이디어를 얻거나, 특정 기능을 수행하기 위한 새로운 컴퓨터 코드를 생성할 수 있다. 이 모든 것은 일반적으로 인간 전문가들이 제공하는 품질 수준에서 제공된다.
물론 이 새로운 인공지능 도구들은 마음을 읽을 수 없다. 인간 사용자가 원하는 결과를 얻으려면 텍스트 프롬프트 형태의 새롭고 더 단순한 종류의 인간 창의성이 필요하다. 인간-AI 협업의 한 예인 반복적인 프롬프트를 통해 AI 시스템은 프롬프트를 작성하는 인간이 결과에 만족할 때까지 연속적인 결과물을 생성한다.
예를 들어, AI 기반 도구를 사용한 디지털 아티스트 부문의 최근 콜로라도 주립 박람회(Colorado State Fair) 대회의 (인간) 우승자는 창의성을 보여주었지만 붓터치와 색상 및 질감에 대한 안목을 요하는 종류의 창의성을 보여준 것은 아니었다.
모든 사람에게 창의성과 지식 작업의 세계를 개방하는 데 상당한 이점이 있지만 이러한 새로운 AI 도구에는 단점도 있다. 첫째, 그들은 앞으로 몇 년 동안 중요하게 남을 중요한 인간 기술, 특히 글쓰기 기술의 손실을 가속화할 수 있다. 교육 기관은 공정한 플레이와 바람직한 학습 결과를 보장하기 위해 대규모 언어 모델의 허용 가능한 사용에 대한 정책을 만들고 시행해야 한다.
둘째, 이러한 인공지능 도구는 지적 재산권 보호와 관련된 문제를 제기한다. 인간 창작자들은 건축과 다른 사람들의 글, 음악 및 그림을 포함하여 세계의 기존 공예품에서 정기적으로 영감을 받지만, 대규모 언어 모델에 의한 저작권이 있는 또는 오픈 소스 교육 예제의 적절하고 공정한 사용에 대한 해답이 없는 질문들이 있다. 현재 진행 중인 소송에서 이 문제를 논의하고 있으며, 이는 향후 대규모 언어 모델의 설계 및 사용에 영향을 미칠 수 있다.
사회가 이러한 새로운 AI 도구의 의미를 탐색함에 따라 대중은 이를 받아들일 준비가 된 것으로 보인다. 챗봇 ChatGPT와 이미지 생성기 Dall-E mini 등이 빠르게 입소문을 탔다. 이는 창의성에 대한 막대한 미개발 잠재력과 모든 사람이 창의적이고 지식적인 작업에 접근할 수 있도록 하는 것의 중요성을 시사한다.
잠재적인 부정확성, 편견 및 표절
Daniel Acuna, 콜로라도 볼더 대학 컴퓨터 과학 부교수
나는 사람들이 컴퓨터 코드를 작성하는 것을 돕는 도구인 GitHub Copilot의 단골 사용자이며, 나는 ChatGPT와 인공지능 생성 텍스트를 위한 유사한 도구들을 가지고 노는 데 많은 시간을 보냈다. 내 경험상, 이 도구들은 내가 이전에 생각하지 않았던 아이디어들을 탐구하는 데 능숙하다.
내 지시를 일관된 텍스트나 코드로 번역하는 모델의 능력에 깊은 인상을 받았다. 그들은 내 아이디어의 흐름을 개선하는 새로운 방법을 발견하거나 내가 존재하는지 몰랐던 소프트웨어 패키지로 솔루션을 만드는 데 유용하다. 이러한 도구가 생성하는 것을 확인하면 품질을 평가하고 크게 편집할 수 있다. 전반적으로, 나는 그들이 창의적이라고 여겨지는 것에 대한 기준을 높인다고 생각한다.
하지만 나는 약간 유보적이다.
한 가지 문제는 그들의 작고 그리고 큰 부정확성이다.
Copilot과 ChatGPT를 사용하면 내용이 많지 않은 텍스트나 비효율적인 코드, 잘못된 유추나 결론 또는 실행되지 않는 코드와 같이 완전히 잘못된 결과물과 같이 아이디어가 너무 얕지 않은지 끊임없이 찾는다. 사용자가 이러한 도구가 생산하는 것에 대해 비판적이지 않으면 도구는 잠재적으로 해로울 수 있다.
최근 메타(Meta)는 과학적 텍스트를 위한 갤럭티카(Galactica) 대규모 언어 모델을 종료했다. 왜냐하면 그것이 "사실"을 구성하지만 매우 자신 있게 들렸기 때문이다. 그럴듯하게 들리는 거짓으로 인터넷을 오염시킬 수 있다는 우려가 있었다.
또 다른 문제는 편견이다. 언어 모델은 데이터의 편향으로부터 학습하고 이를 복제할 수 있다. 이러한 편향은 텍스트 생성에서는 보기 어렵지만 이미지 생성 모델에서는 매우 명확하다. ChatGPT의 개발자인 오픈AI(OpenAI) 의 연구원들은 모델이 응답할 내용에 대해 상대적으로 주의를 기울였지만 사용자는 일상적으로 이러한 가드레일을 우회하는 방법을 찾는다.
또 다른 문제는 표절이다. 최근의 연구는 이미지 생성 도구가 종종 다른 사람의 작품을 표절한다는 것을 보여주었다. ChatGPT도 마찬가지인가? 나는 우리가 모른다고 믿는다. 이 도구는 교육 데이터를 표절의 고급 형태로 바꾸어 표현하고 있을 수 있다. 내 연구실의 연구는 텍스트 표절 탐지 도구가 패러프레이징을 탐지하는 데 있어 훨씬 뒤처져 있다는 것을 보여준다.
이러한 도구는 잠재력을 고려할 때 초기 단계에 있다. 현재로서는 그들의 한계에 대한 해결책이 있다고 생각한다. 예를 들어 도구는 생성된 텍스트를 지식 기반과 대조하여 사실 확인하고, 업데이트된 방법을 사용하여 큰 언어 모델에서 편향을 탐지하고 제거하며, 보다 정교한 표절 탐지 도구를 통해 결과를 실행할 수 있다.
인간을 능가하면서 틈새시장과 '수제' 일자리는 남을 것이다
Kentaro Toyama(미시간 대학 커뮤니티 정보 교수)
우리 인간은 자신의 특별함을 믿기를 좋아하지만, 과학과 기술은 이러한 확신이 틀렸다는 것을 거듭 증명했다. 한때 사람들은 인간만이 도구를 사용하고, 팀을 구성하고, 문화를 전파하는 유일한 동물이라고 생각했지만, 과학은 다른 동물들도 이러한 일을 각각 한다는 것을 보여주었다.
한편, 기술은 인지 작업에 인간의 뇌가 필요하다는 주장을 하나씩 분쇄했다. 최초의 덧셈 기계는 1623년에 발명되었다. 지난해, 컴퓨터로 만든 작품이 미술 대회에서 우승했다. 나는 컴퓨터가 인간의 지능을 만나고 능가하는 순간인 특이점(singularity)이 곧 다가올 것이라고 믿는다.
기계가 가장 똑똑한 사람들보다 더 똑똑하고 창의적이 될 때 인간의 지능과 창의성은 어떻게 평가될 것인가? 연속체가 있을 것 같다. 일부 영역에서, 사람들은 컴퓨터가 그것을 더 잘할 수 있을지라도 여전히 인간이 무언가를 하는 것을 가치 있게 여긴다. IBM의 딥 블루(Deep Blue)가 세계 챔피언 게리 카스파로프(Garry Kasparov)를 이긴 지 25년이 지났지만 인간 체스는 그 모든 드라마와 함께 사라지지 않았다.
다른 영역에서 인간의 기술은 비용이 많이 들고 외부와 관련이 없는 것처럼 보일 것이다. 일러스트레이션을 예로 들어보자. 대부분의 독자들은 잡지 기사에 첨부된 그래픽이 사람에 의해 그려졌든 컴퓨터에 의해 그려졌든 상관하지 않는다. 그들은 단지 그것이 적절하고 새롭고 아마도 재미있기를 원할 뿐이다. 컴퓨터가 그림을 잘 그릴 수 있다면 크레디트 라인이 메리 첸(Mary Chen)인지 시스템 X(System X)인지 독자들이 신경 쓸까? 일러스트레이터는 알겠지만 독자는 눈치채지 못할 수도 있다.
물론, 이 질문은 흑백의 이분법이 아니다. 많은 분야들을 몇몇 호모 사피엔스들이 행운의 틈새를 찾는 혼종이 될 것이지만, 대부분의 일은 컴퓨터에 의해 이루어진다. 제조업을 생각해 보라. 오늘날 대부분은 로봇에 의해 이루어지지만, 일부 사람들은 기계를 감독하고 있으며, 핸드메이드 제품의 시장이 남아 있다.
역사가 어느 정도 길잡이가 된다면 AI의 발전으로 더 많은 일자리가 사라지고, 인간만이 할 수 있는 기술을 가진 창조계급 사람들은 더 부유해지지만 그 수는 줄어들고, 창조 기술을 소유한 사람들이 새로운 거대 기업이 될 것이 거의 확실하다. 희망이 있다면, 더 많은 사람들이 제대로 된 생계를 꾸리지 못할 때, 사람들은 폭주하는 불평등을 억제하려는 정치적 의지를 모을 수도 있을 것이다.
오래된 일자리는 사라지고, 새로운 일자리가 나타날 것이다
Mark Finlayson(플로리다 국제 대학 컴퓨터 과학 부교수)
대규모 언어 모델은 정교한 시퀀스 완성 기계이다. 단어의 시퀀스("나는 … 을 먹고 싶다")를 지정하면 가능성 있는 완성("사과… ")을 돌려준다. 기록적인 수의 단어(조 단위)로 훈련된 ChatGPT와 같은 대규모 언어 모델은 그들의 완성이 얼마나 현실적이고 광범위하며 유연하며 맥락에 민감한지에 대해 많은 AI 연구자를 포함하여 많은 사람들을 놀라게 했다.
기술을 자동화하는 강력한 신기술과 마찬가지로(이 경우 다소 일반적이긴 하지만 일관된 텍스트 생성) 기술은 시장에서 해당 기술을 제공하는 사람들에게 영향을 미친다. 무슨 일이 일어날지 생각하려면 1980년대 초 워드 프로세싱 프로그램 도입의 영향을 상기하는 것이 유용하다. 타이피스트와 같은 특정 직업은 거의 완전히 사라졌다. 그러나 장점은 개인용 컴퓨터가 있는 사람이라면 누구나 손쉽게 잘 조판된 문서를 생성할 수 있어 생산성이 크게 향상된다는 것이다.
게다가, 자주 포함되는 이력서 항목인 MS Office와 같이 이전에는 상상할 수 없었던 새로운 직업과 기술이 등장했다. 그리고 고급 문서 제작 시장은 남아 있었고, 훨씬 더 능력 있고 정교하며 전문화되었다.
나는 이 같은 패턴이 대규모 언어 모델에도 거의 확실히 적용될 것이라고 생각한다. 더 이상 다른 사람에게 일관성 있고 일반적인 텍스트 초안을 요청할 필요가 없다. 반면에, 대규모 언어 모델은 새로운 작업 방식을 가능하게 할 것이며, 또한 새롭고 아직 상상할 수 없는 직업으로 이어질 것이다.
이를 보려면 대규모 언어 모델이 부족한 세 가지 측면만 고려해 보라. 첫째, 원하는 결과물을 얻는 프롬프트를 만드는 데 상당한 (인간의) 영리함이 필요할 수 있다. 프롬프트가 약간 변경되면 결과물이 크게 변경될 수 있다.
둘째, 대규모 언어 모델 언어 모델은 경고 없이 부적절하거나 무의미한 결과물을 생성할 수 있다.
셋째, 인공지능 연구자들이 말할 수 있는 한, 대규모 언어 모델은 무엇이 참인지 거짓인지, 무엇이 옳고 그른지, 그리고 무엇이 상식인지에 대한 추상적이고 일반적인 이해가 없다. 특히, 그들은 상대적으로 간단한 수학을 할 수 없다. 이것은 그들의 결과물이 예기치 않게 오해의 소지가 있거나 편향되어 있거나 논리적으로 결함이 있거나 명백한 거짓일 수 있음을 의미한다.
이러한 실패는 창의적이고 지식 근로자들에게 기회이다. 많은 콘텐츠 제작의 경우, 심지어 일반 청중의 경우에도 사람들은 기계의 결과물을 촉진, 안내, 수집, 큐레이팅, 편집 및 특히 증강하기 위해 여전히 인간의 창의적이고 지식적인 근로자의 판단이 필요할 것이다. 많은 유형의 전문화되고 고도로 기술적인 언어는 가까운 미래에 기계의 손이 닿지 않는 곳에 남아 있을 것이다. 그리고 예를 들어 사내 대규모 언어 모델을 미세 조정하여 특정 시장에 서비스를 제공하기 위한 특정 전문 유형의 텍스트를 생성하는 등 새로운 유형의 작업이 있을 것이다.
요약하자면, 비록 대규모 언어 모델이 창의적이고 지식적인 근로자들에게 혼란을 예고하고 있지만, 이러한 강력한 새로운 도구에 적응하고 통합하려는 사람들에게는 여전히 귀중한 기회가 있다.
기술의 비약은 새로운 기술로 이어진다
Casey Green(콜로라도 앤슈츠 메디컬 캠퍼스 대학 생물의학 정보학 교수)
기술은 일의 본질을 바꾸고, 지식의 일도 다르지 않다. 지난 20년간 생물학과 의학은 신속하고 저렴한 DNA 시퀀싱, 앱, 원격 의료 및 데이터 분석 형태의 의학 디지털화와 같은 분자 특성화 변환을 빠르게 발전시켜 왔다.
기술의 일부 단계는 다른 단계보다 더 크게 느껴진다. 야후는 월드 와이드 웹이 시작되는 새벽에 떠오르는 콘텐츠를 색인화하기 위해 휴먼 큐레이터를 배치했다. 결과의 우선순위를 정하기 위해 웹의 연결 패턴에 포함된 정보를 사용하는 알고리즘의 출현은 오늘날 사람들이 정보를 수집하는 방식을 변화시키면서 검색 환경을 근본적으로 변화시켰다.
오픈AI의 ChatGPT는 또 다른 도약을 의미한다. ChatGPT는 채팅용으로 조정된 최신 대규모 언어 모델을 사용성이 뛰어난 인터페이스로 포장한다. 그것은 사람들의 손끝에서 인공 지능의 10년 간의 급속한 발전을 보여준다. 이 도구는 무난한 커버 레터를 작성하고 사용자가 선택한 언어 스타일의 일반적인 문제를 해결하는 방법을 사용자에게 지시할 수 있다.
구글의 등장으로 인터넷에서 정보를 찾는 기술이 바뀌었듯이 언어 모델에서 최고의 결과물을 도출하는 데 필요한 기술은 원하는 결과물을 생성하는 프롬프트와 프롬프트 템플릿을 만드는 데 중점을 둘 것이다.
자기소개서 예제의 경우 여러 프롬프트가 표시될 수 있다. "일자리를 위한 자기소개서 작성 쓰기"는 "데이터 입력 전문가로서의 일자리에 대한 자기소개서 작성"보다 더 일반적인 출력물을 생성한다 사용자는 작업 설명, 이력서 및 "세부사항에 대한 주의 강조"와 같은 특정 지침의 일부를 붙여 더욱 구체적인 프롬프트를 작성할 수 있다.
많은 기술 발전과 마찬가지로, 사람들이 세계와 상호 작용하는 방식은 널리 접근할 수 있는 AI 모델의 시대에 바뀔 것이다. 문제는 사회가 이 순간을 형평성을 증진시키는 데 사용할 것인가 아니면 격차를 악화시키는 데 사용할 것인가 하는 것이다.
'해외 시사' 카테고리의 다른 글
[ChatGPT 너머 보기 1] ChatGPT 자체가 아니라 교육의 상품화가 학생들을 표절로 몰아 간다. (0) | 2023.01.30 |
---|---|
중국의 인구 감소가 세계의 의미하는 것 (0) | 2023.01.20 |
독일의 시대착오적 쿠데타 시도: 신구 극단주의와 좌우 극단주의의 새로은 합종 연횡 (0) | 2023.01.13 |
바다의 헌법이라 불리는 '해양법에 관한 유엔 협약' 40주년: 그 탄생 배경과 역사 그리고 발전 과정 (0) | 2023.01.11 |
중국 '백지혁명'의 교훈: 구호없는 '무언'과 표현되지 않은 '내심'까지 확장된 억압과 감시, 처벌 (0) | 2022.12.31 |