메뉴 건너뛰기

XEDITION

공지사항

tv

독립가 2025.02.24 21:32 조회 수 : 0

tv챗 GPT 등 대형언어모델(이하 LLM)을 이용한 개인정보 악용 가능성이 실험을 통해 입증됐다. 구글(Google)이 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기할 때, LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 가능성이 실존한다는 의미다. KAIST는 전기 및 전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 LLM을 이용한 사이버 공격 가능성을 실험적으로 규명했다고 24일 밝혔다. lgtv현재 오픈AI(OpenAI), 구글 AI 등 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 하지만 공동연구팀의 실험 결과에서는 이러한 방어 기법에도 불구하고, 우회적으로 악의적 사이버 공격을 수행할 수 있음이 확인됐다. 삼성tv특히 공격자가 사이버 공격에 많은 시간과 노력을 들여야 했던 기존 상황과 달리, LLM 에이전트는 이를 평균 5~20초 이내에 30~60원(2~4센트) 수준의 비용으로도 개인정보를 탈취하는 등 악의적 사이버 공격을 수행할 수 있어 LLM 서비스가 사이버 환경에서 새로운 위협 요소가 될 수 있다고 공동연구팀은 진단했다.

위로