오픈AI와 같은 AI 선도 기업은 작년에 AI에 수백억 달러를 투자했다. 앞으로 수조 달러를 더 투자할 계획이다. 현재 기술 업계는 생성형 AI 모델의 수를 늘리기 위해 경쟁하고 있다. 목표는 꾸준히 더 나은 성능을 입증하고, 인간이 할 수 있는 일과 AI로 달성할 수 있는 일 사이의 격차를 좁히는 것이다.
그러나 이러한 새로운 도구와 시스템을 고려할 때 동등하거나 더 높은 우선순위를 부여해야 할 또 다른 지표가 있다. 바로 ‘AI 신뢰 격차AI trust gap’다. 이 격차는 자격을 갖춘 사람에게 맡길 일을 기꺼이 기계에 맡길 수 있을 때 좁힐 수 있다. AI가 널리 채택되려면 과소평가된 격차를 분석하고, 이를 해소하기 위해 할 수 있는 솔루션에 투자해야 한다.
AI 신뢰 격차는 AI와 관련된 지속적인 위험(실제 및 인지된 위험 모두)의 합으로 이해할 수 있다. 애플리케이션에 따라 일부 위험이 더 중요할 수 있다. 이러한 위험은 예측을 위한 머신러닝과 생성형 AI를 모두 포함한다. 미국 연방거래위원회에 따르면 소비자들은 AI에 대한 우려를 표명하고 있으며기업들은 몇 가지 중장기적인 문제에 대해 우려하고 있다. 두 그룹 모두에서 가장 일반적으로 언급하는 12가지 AI 위험을 고려해 보자.