딥페이크와 정교해진 사기 수법, 금융기관의 대책 마련이 시급
[KtN 김상기기자] 딜로이트의 최신 보고서에 따르면 생성형 인공지능(AI)의 발전이 금융사기 수법을 급속히 정교화시키며, 은행업계를 심각한 위협에 노출시키고 있다. 특히 딥페이크 기술을 활용한 금융사기의 급증으로 은행과 고객 모두를 대상으로 한 피해가 확산되고 있다.
생성형 AI로 인한 금융사기의 다양화
최근 발생한 홍콩 소재 기업의 사례는 생성형 AI가 금융사기에 어떻게 악용될 수 있는지를 단적으로 보여준다. 이 사건에서 직원은 딥페이크 기술로 조작된 화상회의에 속아 2,500만 달러를 송금했다. 딜로이트는 미국에서만 2023년 생성형 AI 기반 금융사기 피해액이 123억 달러에 달할 것으로 추정하며, 이 수치는 2027년까지 400억 달러로 증가할 것으로 전망한다. 이처럼 딥페이크 영상, 음성 모방, 문서 위조 등 다양한 수법이 금융사기를 한층 더 치밀하고 어렵게 만들고 있다.
은행의 대응 전략과 첨단 기술 도입
이러한 위협에 대응하기 위해 은행들은 사기방지 전략을 재정비하고 첨단 기술에 대한 투자를 강화해야 한다. AI 기반 사기행위를 탐지하고 예방하기 위해서는 사기방지팀의 역량 강화와 함께 AI, 머신러닝 알고리즘을 활용한 기술적 대응이 필요하다. 이를 통해 딥페이크와 같은 새로운 사기 수법을 선제적으로 탐지하고 차단할 수 있는 시스템을 구축해야 한다.
기존의 사기방지 시스템이 빠르게 변화하는 기술을 따라잡지 못하고 있는 상황에서, 은행들은 외부 기관과의 협력도 중요하다. 은행 업계 간 협업뿐 아니라 신뢰할 수 있는 테크 기업과의 파트너십을 통해 첨단 사기방지 솔루션을 개발하고, 사기행위에 대한 대응책을 공동으로 수립해야 한다.
고객과의 협력 및 규제 대응
은행들은 고객들에게도 사기방지에 대한 정보를 적극적으로 제공하고, 잠재적 리스크에 대한 경각심을 높여야 한다. 이를 통해 고객들의 행동을 사기행위로부터 보호하고, 은행과 고객 간의 신뢰를 강화할 수 있다. 또한 규제당국이 생성형 AI의 잠재적 위협을 주시하고 있는 만큼, 은행들은 새로운 산업 표준 수립에 적극 동참하고 컴플라이언스 프로세스를 미리 구축해 규제 변화에 대응할 준비를 갖춰야 한다.
전문 인력 확보와 사기 방지 문화 구축
생성형 AI 기반 사기행위에 대응하려면 전문 인력 확보와 기존 인력의 재교육이 필수적이다. 이는 단순한 비용 절감을 넘어 은행의 장기적인 안정성과 신뢰성을 확보하기 위한 핵심 투자 영역이다. 내부 엔지니어링팀과 외부 벤더 업체 간의 긴밀한 협력을 통해 사기방지 소프트웨어를 지속적으로 개발하고 개선하는 조직 문화를 구축해야 한다.
K 리포트
생성형 AI는 금융사기의 복잡성과 파급력을 한층 강화하며 은행업계를 위협하고 있다. 2027년까지 이러한 사기로 인한 피해가 400억 달러에 이를 것으로 전망되는 가운데, 은행들은 신속하고 적극적인 대응을 통해 이러한 위협에 맞서야 한다. 기술과 인간의 직관을 융합한 사기 방지 전략, 고객과의 지속적인 소통, 규제 대응을 위한 선제적 준비 등 다각적인 노력이 필요한 시점이다. 이로써 금융사기의 새로운 시대에 은행의 신뢰성과 안정성을 지켜나가야 할 것이다.
