해커들은 악성 악성 코드를 만드는 데 인공 지능을 사용하고 있다고 FBI가 말했습니다 | ENBLE

FBI says hackers are using artificial intelligence to create malicious code | ENBLE

FBI는 ChatGPT와 같은 생성적 인공지능(AI) 도구를 사용하여 해커들이 날로 증가하고 이를 통해 악성 코드를 신속하게 생성하고 과거보다 훨씬 더 많은 노력이 필요한 사이버 범죄를 일으키고 있다고 경고했습니다.

FBI는 기자들과의 통화에서 우려사항을 상세히 설명하며, AI 챗봇이 사기꾼과 사기꾼들이 기술을 완성시키고 더 큰 피해를 입힐 화학 공격을 어떻게 진행할지에 대한 상담을 받는 테러리스트들을 포함한 다양한 불법 활동을 촉진했다고 설명했습니다.

Sora Shimazaki / Pexels

Tom’s Hardware를 통해 전한 한 FBI 고위 관리자는 “AI 모델의 채택과 민주화가 계속되면 이러한 추세가 증가할 것으로 예상합니다.”라고 말했습니다. 악의적인 행위자들은 AI를 사용하여 정상적인 범죄 활동을 보완하고, AI 음성 생성기를 사용하여 신뢰할 수 있는 사람들을 흉내내어 가족이나 노인들을 사기로 속이는 등의 행위를 포함하고 있다고 계속해서 말했습니다.

해커들이 ChatGPT와 같은 도구를 가져다가 위험한 악성 소프트웨어를 만드는 것은 처음이 아닙니다. 2023년 2월에 보안 회사 Checkpoint의 연구원들은 악의적인 행위자들이 챗봇의 API를 변경하여 거의 모든 해커가 바이러스를 생성할 수 있게 하는 악성 소프트웨어 코드를 생성할 수 있었다는 사실을 발견했습니다.

ChatGPT는 보안 위협인가요?

Hatice Baran / Unsplash

FBI의 입장은 2023년 5월에 저희가 인터뷰한 일부 사이버 전문가들과는 매우 다릅니다. 그들은 AI 챗봇으로부터의 위협이 대부분 과장되었으며, 대부분의 해커들은 더 전통적인 데이터 유출과 오픈 소스 연구로부터 더 나은 코드 취약점을 찾고 있다고 말했습니다.

예를 들어, Bitdefender의 기술 솔루션 디렉터인 Martin Zugec는 “대부분의 초보 악성 소프트웨어 작성자들은 챗봇의 악성 소프트웨어 방어 기능을 우회하는 데 필요한 기술을 보유하고 있지 않을 것”이라고 설명했습니다. 게다가 Zugec는 “챗봇이 생성한 악성 소프트웨어 코드의 품질은 낮은 편”이라고 설명했습니다.

이는 FBI의 주장에 대한 반론을 제공하며, 어느 쪽이 옳은지는 시간이 지나야 알게 될 것입니다. 그러나 ChatGPT를 개발한 OpenAI가 챗봇 생성 표절을 감지하기 위한 자체 도구를 중단함에 따라 최근의 소식은 격려되지 않았습니다. FBI가 옳다면, 해커와 챗봇 기반 악성 소프트웨어에 대한 전투에서 어려운 시기가 올 것입니다.