반응형
요리 조언을 받든 연설을 도와주든 ChatGPT는 많은 사람들이 인공 지능(AI) 시스템을 가지고 놀 수 있는 첫 번째 기회였습니다.
ChatGPT는 OpenAI에서 개발한 고급 언어 처리 기술을 기반으로 합니다.
인공 지능(AI)은 책, 잡지, Wikipedia 항목을 포함하여 인터넷의 텍스트 데이터베이스를 사용하여 훈련되었습니다. 모두 3000억 단어가 시스템에 입력되었습니다.
최종 결과는 소름 끼치게 인간처럼 보일 수 있지만 백과사전적 지식을 갖춘 챗봇입니다.
부엌 찬장에 있는 것을 ChatGPT에 말하면 요리법을 알려줄 것입니다 . 큰 프레젠테이션에 대한 간단한 소개가 필요하십니까? 괜찮아요.
하지만 너무 좋은가요? 인간 반응에 대한 설득력 있는 근사치는 좋지 않은 사람들에게 강력한 도구가 될 수 있습니다.
학계, 사이버 보안 연구원 및 AI 전문가는 나쁜 행위자가 ChatGPT를 사용하여 반대 의견을 퍼뜨리고 소셜 미디어에 선전을 퍼뜨릴 수 있다고 경고합니다.
지금까지 잘못된 정보를 퍼뜨리려면 상당한 인력이 필요했습니다. 그러나 1월에 발표된 Georgetown University, Stanford Internet Observatory 및 OpenAI의 보고서에 따르면 ChatGPT와 같은 AI는 소위 트롤 군대가 작전을 확장하는 것을 훨씬 더 쉽게 만들 것입니다 .
ChatGPT와 같은 정교한 언어 처리 시스템은 소셜 미디어에서 소위 영향을 미치는 작업에 영향을 미칠 수 있습니다.
이러한 캠페인은 비판을 피하고 여당이나 정치인을 긍정적인 방식으로 캐스팅하려고 하며 정책을 옹호하거나 반대할 수도 있습니다. 가짜 계정을 사용하여 소셜 미디어에 잘못된 정보를 퍼뜨리기도 합니다.
2016년 9월 26일 뉴욕 헴스테드에서 열린 호프스트라 대학교 토론회 무대에 오른 공화당 대선 후보 도널드 트럼프와 민주당 대선 후보 힐러리 클린턴.
이미지 출처,게티 이미지
이미지 캡션,
공식 보고서에 따르면 2016년 힐러리 클린턴의 대선 출마를 방해하기 위한 러시아의 소셜 미디어 게시물 수천 개가 발견되었습니다.
그러한 캠페인 중 하나는 2016년 미국 선거를 앞두고 시작되었습니다.
힐러리 클린턴의 캠페인을 해치고 도널드 트럼프를 지원하는 데 초점을 맞춘 상트페테르부르크 소재 인터넷 조사 기관(Internet Research Agency)이 만든 수천 개의 트위터, 페이스북, 인스타그램, 유튜브 계정이 2019년 상원 정보위원회를 결론 지었습니다 .
그러나 미래의 선거는 잘못된 정보의 대홍수를 처리해야 할 수도 있습니다.
1월에 발표된 AI 보고서는 "저렴한 비용으로 사람이 작성한 콘텐츠와 경쟁할 수 있는 언어 모델의 잠재력은 강력한 기술과 마찬가지로 이러한 모델을 사용하기로 선택한 선전가에게 뚜렷한 이점을 제공할 수 있음을 시사합니다."라고 말했습니다.
보고서는 "이러한 이점은 더 많은 행위자에 대한 접근을 확대하고 새로운 영향력 전술을 가능하게 하며 캠페인의 메시지를 훨씬 더 맞춤화되고 잠재적으로 효과적으로 만들 수 있다"고 경고합니다.
증가할 수 있는 잘못된 정보의 양뿐만 아니라 품질도 마찬가지입니다.
이 논문의 공동저자이자 Georgetown's Center for Security and Emerging Technology에서 CyberAI 프로젝트에 참여하고 있습니다.
"생성 언어 모델은 매번 독창적인 대량의 콘텐츠를 생성할 수 있으며 각 선전가가 소셜 미디어 계정이나 뉴스 사이트에서 동일한 텍스트를 복사하여 붙여넣는 데 의존하지 않도록 합니다."라고 그는 말합니다.
프리젠테이션 그레이 라인
더 많은 비즈니스 기술:
전력에 목마른 데이터 센터를 통제할 수 있습니까?
첨단 보안 시스템에 박차를 가하는 도구 절도의 물결
음성 비서와 사랑에 빠진 방법
고기 없는 제품에 '지글 지글'을 추가하는 방법
대마는 건설 산업에서 컴백합니다.
프리젠테이션 그레이 라인
골드스타인 씨는 계속해서 플랫폼이 거짓 정보나 선전으로 넘쳐나면 대중이 무엇이 진실인지 분별하기가 더 어려워질 것이라고 말했습니다. 종종 그것은 영향력 행사에 참여하는 나쁜 행위자들의 목표가 될 수 있습니다.
그의 보고서는 또한 이러한 시스템에 대한 액세스가 일부 조직의 영역으로 남아 있지 않을 수 있음을 언급합니다.
"현재 소수의 기업이나 정부는 안정적으로 수행할 수 있는 작업과 출력하는 언어가 제한된 최상위 언어 모델을 보유하고 있습니다.
"더 많은 행위자가 최첨단 생성 모델에 투자하면 선전가가 접근할 가능성이 높아질 수 있습니다."라고 그의 보고서는 말합니다.
2016년 Uber가 인수한 AI 회사인 Geometric Intelligence의 창립자이자 AI 전문가인 Gary Marcus는 악의적인 그룹이 스팸과 유사한 AI 작성 콘텐츠를 볼 수 있다고 말합니다.
"스팸을 퍼뜨리는 사람들은 가장 속기 쉬운 사람들이 자신의 링크를 클릭하고 가능한 한 많은 사람들에게 도달할 수 있는 스프레이 및 기도 접근 방식을 사용합니다. 하지만 AI를 사용하면 그 물총은 역사상 가장 큰 슈퍼 소커가 될 수 있습니다."
또한 Twitter 및 Facebook과 같은 플랫폼이 가해자가 네트워크에 퍼뜨리는 것의 4분의 3을 제거하더라도 "아직도 온라인에서 사람들을 오도하는 것을 목표로 할 수 있는 콘텐츠가 이전보다 10배 이상 많습니다"라고 Marcus는 말했습니다. 말한다.
가짜 소셜 미디어 계정의 급증은 Twitter와 Facebook 측면에서 가시가 되었으며 오늘날 언어 모델 시스템의 빠른 성숙은 이러한 플랫폼을 훨씬 더 많은 가짜 프로필로 가득 채울 것입니다.
카네기 멜론 대학의 컴퓨터 과학 교수인 빈센트 코니처(Vincent Conitzer)는 "ChatGPT와 같은 것은 우리가 이전에 본 적이 없는 수준으로 가짜 계정의 확산을 확장할 수 있습니다. 존재들."
Carnegie Mellon University의 컴퓨터 과학 교수 Vincent Conitzer
이미지 출처,카네기 멜론 대학
이미지 캡션,
Vincent Conitzer는 ChatGPT와 같은 기술을 사용하는 가짜 계정은 사람이 구별하기 어려울 것이라고 말했습니다.
Mr Goldstein이 공동 집필한 2023년 1월 논문과 보안 회사 WithSecure Intelligence의 유사한 보고서는 생성 언어 모델이 소셜 미디어에 퍼질 수 있는 가짜 뉴스 기사를 빠르고 효율적으로 생성할 수 있는 방법에 대해 경고합니다. 결정적인 선거 전에 유권자에게 영향을 미칠 수 있는 내러티브.
그러나 Chat-GPT와 같은 AI 시스템으로 인해 잘못된 정보와 가짜 뉴스가 더 큰 위협으로 등장한다면 소셜 미디어 플랫폼은 최대한 능동적으로 대처해야 할까요? 일부 전문가들은 그러한 종류의 게시물을 집행하는 데 느슨할 것이라고 생각합니다.
Northwestern Institute on Complex Systems의 공동 책임자인 Luís A Nunes Amaral은 "Facebook 및 기타 플랫폼은 가짜 콘텐츠에 플래그를 지정해야 하지만 Facebook은 해당 테스트에서 눈에 띄게 실패했습니다."라고 말합니다.
"그런 조치를 취하지 않는 이유에는 모든 게시물을 모니터링하는 비용이 포함되며 이러한 가짜 게시물이 사람들을 화나게 하고 분열시키기 위한 것임을 깨닫고 참여를 유도합니다. 이는 Facebook에 도움이 됩니다."
반응형
'DEVEL > ETC' 카테고리의 다른 글
OpenAI, ChatGPT 후속 GPT-4 발표 (0) | 2023.03.20 |
---|---|
Microsoft 365에 도입된 ChatGPT 스타일 기술 (0) | 2023.03.20 |
축소된 웹사이트가 탄소 배출량을 줄이는 방법 (0) | 2023.03.19 |
메노르카의 신비한 '거인을 위한 테이블' (0) | 2023.03.19 |
미국의 2,000년 된 미스터리 마운드 (0) | 2023.03.19 |