숭실대학교 AI 안전성 연구센터는 인공지능 기술의 급속한 발전에 따라 발생할 수 있는 위험성을 연구하고 이에 대응하기 위한 체계적인 정책과 기술을 개발하는 것을 목표로 합니다.
센터는 다학제적인 접근을 통해 다양한 학문과 분야의 전문성을 결합하여 민간 주도의 연구기관으로서, 산업계와 학문계를 아우르는 실질적이고 적용 가능한 해결책을 모색하는 데 중점을 두고 있습니다. 특히, 다음 세가지 연구 분야에 중점을 두고 활동합니다.
AI 시스템이 직면할 수 있는 위험을 식별하고 평가하며,
이를 예방하고 대응하기 위한 안전성 테스트 및 위험 대응 기술과 정책을 연구합니다.
이러한 위험을 관리하기 위한 지속적인 프로세스 및 결과에 대한 해석 가능한 시각화를 제공하고,
법제도를 개발하여 AI의 안전한 사용을 도모합니다.
국방 등 활용되는 AI의 보안이 중요한 분야에서,
AI 시스템이 다양한 적대적 시나리오에서도 견딜 수 있도록 대응 기술을 연구 개발하여
시스템의 복원력을 강화하고 보안을 유지하는 데 중점을 둡니다.
이러한 연구를 통해 국가 안보와 공공 안전에 기여합니다.
AI가 제공하는 결과물의 신뢰성을 높이고, 편향이나 오류를 방지하기 위한 기술을 개발합니다.
이를 통해 가짜뉴스 , 딥페이크, 딥보이스 등의 AI 결과물이
부정적으로 사용되는 것을 방지하고, 개인 정보 유출 및 침해에 대응하며
전반적인 AI 공급망에서 발생할 수 있는 취약점을 진단하고 이를 보완합니다.
연구센터는 AI 기술이 가져올 수 있는 다양한 위험에 대응하여, 사회적 신뢰를 구축하고 이용자 및 기업의 안전을 보장하기 위한 노력을 지속하고 있습니다.