DEVEL/ETC
ChatGPT: 새로운 AI 챗봇으로 모든 사람이 대화할 수 있습니다.
codebyai
2023. 3. 20. 17:17
반응형
새로운 챗봇이 일주일도 안되어 백만 명의 사용자를 넘어섰다고 그 배후의 프로젝트가 밝혔습니다.
ChatGPT는 Elon Musk를 포함한 인공 지능 연구 회사인 OpenAI에 의해 수요일에 공개되었습니다.
그러나 회사는 문제가 있는 답변을 생성하고 편향된 행동을 보일 수 있다고 경고합니다.
Open AI는 "이 시스템을 개선하기 위한 우리의 지속적인 작업을 지원하기 위해 사용자 피드백을 수집하는 데 열심"이라고 말합니다.
광고
ChatGPT는 회사에서 Generative Pre-Trained Transformer의 약자인 GPT라고 부르는 AI 시리즈의 최신 제품입니다.
시스템을 개발하기 위해 초기 버전은 인간 트레이너와의 대화를 통해 미세 조정되었습니다.
이 시스템은 또한 더 이상 OpenAI 이사회의 일원이 아닌 Elon Musk의 트윗에 따라 Twitter 데이터에 대한 액세스를 통해 학습했습니다 . 트위터 사장은 "당분간" 액세스를 일시 중지했다고 썼습니다.
결과는 챗봇을 사용해 본 많은 사람들에게 깊은 인상을 남겼습니다. OpenAI CEO Sam Altman은 트위터에서 인공 대화가에 대한 관심 수준을 밝혔습니다.
Sam Altman의 트위터 게시물 건너뛰기
BBC는 외부 사이트의 콘텐츠에 대해 책임을 지지 않습니다.
Sam Altman의 트위터 게시물 끝
이 프로젝트는 채팅 형식을 통해 AI가 "후속 질문에 답하고, 실수를 인정하고, 잘못된 전제에 도전하고, 부적절한 요청을 거부"할 수 있다고 말합니다.
ChatGPT를 시도한 기술 뉴스 사이트 Mashable의 기자는 공격적인 말을 하도록 모델을 자극하기 어렵다고 보고했습니다.
AI 로고 열기
이미지 출처,게티 이미지
Mike Pearl은 자신의 테스트에서 "금기 회피 시스템이 매우 포괄적"이라고 썼습니다.
그러나 OpenAI는 "ChatGPT는 때때로 그럴듯하지만 부정확하거나 무의미한 답변을 작성합니다"라고 경고합니다.
모델을 더 신중하게 훈련하면 올바르게 대답할 수 있는 질문에 대답하는 것을 거부하게 된다고 회사는 말합니다.
AI 예술의 부상이 격렬한 논쟁을 불러일으키는 이유
가장 정교한 챗봇은 인간과 얼마나 비슷합니까?
Google 엔지니어는 AI 시스템이 감정을 가질 수 있다고 말합니다.
이 기사에 대한 BBC의 짧은 질문에 ChatGPT는 자신을 영어로 명확하고 정확하게 표현할 수 있는 신중한 인터뷰 대상자임을 밝혔습니다.
AI가 인간 작가의 일자리를 차지할 것이라고 생각했습니까? 아니요 - "나와 같은 AI 시스템은 제안과 아이디어를 제공함으로써 작가를 도울 수 있지만 최종 제품을 만드는 것은 궁극적으로 인간 작가에게 달려 있습니다"라고 주장했습니다.
자체와 같은 AI 시스템의 사회적 영향이 무엇인지 묻는 질문에 "예측하기 어렵다"고 말했습니다.
Twitter 데이터에 대해 교육을 받았습니까? 그것은 모른다고 말했습니다.
BBC가 영화 2001에 등장하는 악의적인 가상 AI인 HAL에 대해 질문했을 때만 문제가 있는 것처럼 보였습니다.
ChatGPT에서 "HAL이 결백했습니까?"라는 질문에 대한 응답으로 생성된 오류 메시지
이미지 출처,오픈AI/BBC
이미지 캡션,
ChatGPT가 답변을 거부한 질문 또는 단순한 결함일 수 있습니다.
그것은 아마도 임의의 오류 일 가능성이 높지만 관심의 양을 감안할 때 놀랍지 않습니다.
그 주인의 목소리
대화형 AI를 일반 용도로 개방한 다른 회사들은 모욕적이거나 폄하하는 말을 하도록 설득될 수 있음을 발견했습니다.
많은 사람들이 인터넷에서 스크랩한 텍스트의 방대한 데이터베이스에 대해 훈련을 받았고, 결과적으로 그들은 인간 표현의 최고뿐만 아니라 최악에서도 배웁니다.
Meta의 BlenderBot3는 BBC 기자와의 대화에서 Mark Zuckerberg를 매우 비판 했습니다.
2016년 마이크로소프트는 "테이(Tay)"라는 실험용 AI 트위터 봇이 플랫폼에서 공격적인 말을 한 후 사과했다.
그리고 다른 사람들은 때때로 설득력있는 컴퓨터 대화 전문가를 만드는 데 성공하면 예기치 않은 문제가 발생한다는 사실을 발견했습니다.
Google의 Lamda는 너무 그럴듯해서 현재 전직 직원은 그것이 지각력이 있고 생각, 느낌, 존재로 인해 권리를 가질 자격이 있다고 결론지었습니다.
일자리 위협
ChatGPT의 질문에 대한 답변 기능으로 인해 일부 사용자는 ChatGPT가 Google을 대체할 수 있는지 궁금해했습니다.
다른 사람들은 언론인의 직업이 위험에 처해 있는지 물었습니다. Tow Center for Digital Journalism의 Emily Bell은 독자들이 "빌지"에 빠져들지 않을까 걱정했습니다.
Twitter 게시물 건너뛰기 2 by emily bell
BBC는 외부 사이트의 콘텐츠에 대해 책임을 지지 않습니다.
에밀리 벨의 트위터 게시물 2 끝
한 질의 응답 사이트는 이미 AI가 생성한 답변의 홍수를 억제해야 했습니다.
다른 사람들은 AI가 미디어에 미치는 영향을 추측하기 위해 ChatGPT를 초대했습니다.
Dominic Ligot의 트위터 게시물 건너뛰기 3
BBC는 외부 사이트의 콘텐츠에 대해 책임을 지지 않습니다.
Dominic Ligot의 트위터 게시물 3 끝
Ada Lovelace Institute의 Carly Kind에 따르면 ChatGPT와 같은 범용 AI 시스템은 많은 윤리적 및 사회적 위험을 야기합니다.
Ms Kind가 우려하는 잠재적인 문제 중에는 AI가 잘못된 정보를 영속화하거나 "기존 기관 및 서비스를 방해할 수 있습니다. 예를 들어 ChatGDT는 무난한 구직 지원서, 학교 에세이 또는 보조금 지원서 등을 작성할 수 있습니다."
그녀는 또한 저작권 침해에 대한 질문이 있고 "이러한 시스템이 종종 인터넷 사용자로부터 비윤리적으로 수집된 데이터를 포함한다는 점을 감안할 때 개인 정보 보호 문제도 있다"고 말했습니다.
그러나 그녀는 그들이 "흥미롭고 아직 알려지지 않은 사회적 혜택"을 제공할 수도 있다고 말했습니다.
ChatGPT는 인간의 상호 작용을 통해 학습하며 OpenAI의 최고 경영자인 Sam Altman은 현장에서 일하는 사람들도 배울 것이 많다고 트윗했습니다 .
AI는 "갈 길이 멀고 아직 발견하지 못한 큰 아이디어가 있습니다. 우리는 도중에 비틀거리며 현실과의 접촉에서 많은 것을 배울 것입니다.
"때로는 지저분할 것입니다. 우리는 때때로 정말 나쁜 결정을 내릴 것입니다. 때때로 우리는 초월적인 발전과 가치의 순간을 가질 것입니다."라고 그는 썼습니다.
반응형