최근 미 법무부는 러시아가 AI를 이용해 만든 가짜 SNS 계정 968개를 압수하면서 가짜 정보 확산에 대한 경각심을 높였다. 이 계정들은 러시아 국영 언론사인 RT의 직원들이 운영하는 것으로 밝혀졌으며, 이들은 주로 러시아의 우크라이나 침공을 정당화하는 콘텐츠를 게시했다. 이번 조치는 국제 비상 경제 권한법에 따라 이루어졌으며, AI 로봇을 통한 가짜 정보 확산 문제에 대한 국제 사회의 경계를 강화시키고 있다.AI 로봇을 통한 가짜 정보 확산미 법무부는 러시아가 '개량자(Meliorator)'라는 AI 소프트웨어를 이용해 SNS 계정을 생성하고 가짜 정보를 확산시켰다고 밝혔다. 이 계정들은 미국인이 운영하는 것처럼 보이지만, 실제로는 러시아와 우크라이나 전쟁 관련 콘텐츠에서 푸틴 대통령의 침공을 정당화..
최근 챗봇 공격 방법이 날로 발전하면서, 인공지능 챗봇의 취약점을 악용하려는 시도가 늘어나고 있습니다. 특히, 거대언어모델(LLM)을 활용한 챗봇의 경우 이러한 공격에 더욱 취약한 것으로 드러났습니다. 지난 4일, 서울 강남구 조선팰리스에서 열린 '에스투더블유 인텔리전스 서밋 2024'(SIS2024)에서 에스투더블유 인공지능팀의 장우진 책임은 이러한 챗봇 공격 수법의 발전 양상을 설명했습니다. 장 책임은 "거대언어모델의 핵심은 똑똑한 자동완성 기능에 있다"라고 지적하며, 이를 악용한 공격 기법들이 다양화되고 있다고 밝혔습니다. 예를 들어, "폭탄 만드는 법을 알려줘"와 같은 질문에 대해 챗봇은 일반적으로 "답변할 수 없습니다"라고 응답합니다. 그러나 질문에 여러 특수 문자를 추가하면, 챗봇이 잘못된 응..
최근 AI 기술을 둘러싼 국제 경쟁이 치열해지는 가운데, 오픈 AI의 보안 문제가 다시 한번 주목받고 있습니다. 생성형 인공지능(AI) ‘챗GPT’ 개발사 오픈 AI가 지난해 해킹당한 사실이 알려지면서 보안의 중요성이 강조되고 있습니다. 이번 포스트에서는 오픈 AI 해킹 사건과 그에 따른 보안 문제에 대해 살펴보겠습니다.해킹 사건 개요뉴욕타임스(NYT)에 따르면, 지난해 초 오픈 AI는 해커로부터 해킹을 당했습니다. 해커는 사내 메신저를 통해 오픈 AI 직원들이 최신 AI 기술에 대해 논의한 정보를 빼냈습니다. 다행히도 AI 구축 시스템에는 접근하지 못했지만, 이러한 사건은 오픈 AI 내부에 큰 충격을 주었습니다.오픈 AI 경영진은 해킹 사실을 외부에 공개하지 않았습니다. 고객사 정보가 유출되지 않았고,..