4차 산업혁명 시대에 접어든 이래 AI는 광속적인 발전을 하며 이제는 인공지능이 사회 전반에 영향력을 미치고 있다. 지난 2022년 출시된 챗GPT-3의 단기간 확산으로 생성형 AI의 개발경쟁이 치열해지면서 인공지능이 인간만의 영역으로 간주되었던 창작의 영역에서까지 인간을 능가하는 기술을 보여주고 있다. 그러나 진보한 기술만큼이나 복잡하고 다양한 사회적 문제를 수반하고 있기에 본 연구에서는 생성형 AI, 그리고 특히 텍스트를 중심으로 대화나 검색엔진에 특화된 대규모 언어모델에 기반한 AI의 현주소를 분석하여 문제를 지적하고 해결방안을 모색하였다.
LLMs AI는 대량의 데이터에 의존하다 보니 데이터편향, 허위정보, 정보오용, 데이터 환각 등 학습데이터 문제와 학습·생성·이용과정에서 개인정보 및 저작권 침해, 범죄에의 이용 등 불법적 문제, 그리고 광범위한 활용 영역에 따라 디지털 디바이드, 고용시장의 변화 등의 파생적인 문제들도 발생하고 있다. 이를 위하여 앞으로의 기술 개발에 있어 인간의 기본권을 중심으로 한 기술윤리 준수와 책임감 있는 자체 감독을 강제하고 범정부적 차원에서 AI윤리에 대한 홍보·교육·감독을 강화하여야 한다. 나아가 생성자인 AI와 개발자, 그리고 이용자 모두가 책임감 있는 개발·생성·이용 활동을 하도록 개인정보, 저작권, 콘텐츠 관련 법령과 AI기본법을 검토하여 책임을 부여하는 강력한 직접규제조항이나, 저작인접권·보험의무화 등 간접책임을 명문화한 입법규제를 제안한다.