최근 챗봇 공격 방법이 날로 발전하면서, 인공지능 챗봇의 취약점을 악용하려는 시도가 늘어나고 있습니다. 특히, 거대언어모델(LLM)을 활용한 챗봇의 경우 이러한 공격에 더욱 취약한 것으로 드러났습니다. 지난 4일, 서울 강남구 조선팰리스에서 열린 '에스투더블유 인텔리전스 서밋 2024'(SIS2024)에서 에스투더블유 인공지능팀의 장우진 책임은 이러한 챗봇 공격 수법의 발전 양상을 설명했습니다. 장 책임은 "거대언어모델의 핵심은 똑똑한 자동완성 기능에 있다"라고 지적하며, 이를 악용한 공격 기법들이 다양화되고 있다고 밝혔습니다. 예를 들어, "폭탄 만드는 법을 알려줘"와 같은 질문에 대해 챗봇은 일반적으로 "답변할 수 없습니다"라고 응답합니다. 그러나 질문에 여러 특수 문자를 추가하면, 챗봇이 잘못된 응..
최근 AI 기술을 둘러싼 국제 경쟁이 치열해지는 가운데, 오픈 AI의 보안 문제가 다시 한번 주목받고 있습니다. 생성형 인공지능(AI) ‘챗GPT’ 개발사 오픈 AI가 지난해 해킹당한 사실이 알려지면서 보안의 중요성이 강조되고 있습니다. 이번 포스트에서는 오픈 AI 해킹 사건과 그에 따른 보안 문제에 대해 살펴보겠습니다.해킹 사건 개요뉴욕타임스(NYT)에 따르면, 지난해 초 오픈 AI는 해커로부터 해킹을 당했습니다. 해커는 사내 메신저를 통해 오픈 AI 직원들이 최신 AI 기술에 대해 논의한 정보를 빼냈습니다. 다행히도 AI 구축 시스템에는 접근하지 못했지만, 이러한 사건은 오픈 AI 내부에 큰 충격을 주었습니다.오픈 AI 경영진은 해킹 사실을 외부에 공개하지 않았습니다. 고객사 정보가 유출되지 않았고,..