AI 규제 혁신, 자율규제, 그리고 거버넌스 사이의 균형 잡기

인공지능 규제 혁신, 자율 규제 및 거버넌스간의 밸런스 맞추기

 

인공지능의 미래에 대한 대화가 진행되는 가운데 AI 거버넌스에 대한 논쟁이 고조되고 있습니다. 일부 사람들은 AI 기술을 사용하거나 확보하는 회사가 스스로 규제할 수 있어야 한다고 믿지만, 다른 일부는 정부로부터 보다 엄격한 법규가 필요하다고 생각하고 있습니다.

빠르게 성장하는 AI 영역에서 어떠한 거버넌스가 필요한지 긴요한 필요성이 명백합니다.

AI의 부상: 혁신의 새로운 세대

AI는 다양한 응용 분야가 있지만 인공지능 분야에서 가장 혁신적이고 잘 알려진 기관 중 하나는 OpenAI입니다. ChatGPT라는 자연어 처리기(NLP)가 인기를 끈 후로 OpenAI의 여러 기술들은 상당한 성공을 거두었습니다.

 

이와 유사한 성공 사례를 찾기 위해 많은 다른 회사들이 더 많은 시간과 연구, 자금을 투자하고 있습니다. 2023년에만 AI 지출은 지난해보다 27% 증가하여 1,540억 달러에 달할 것으로 예상됩니다. ChatGPT의 출시 이후로 AI는 외면에서 주목받는 존재가 아니라 전 세계의 거의 모든 사람들이 알게 된 것으로 알려져 있습니다.

 

AI의 인기는 회사의 성과 향상 잠재력을 비롯한 여러 가지 요인들에 기인할 수 있습니다. 조사 결과, 직원들이 디지털 기술을 향상시키고 AI 도구와 협력하여 업무 능률을 높일 수 있다면, 생산성을 향상시키고 팀의 성과를 증가시킬 수 있으며 문제 해결 능력을 향상시킬 수 있다는 것을 보여주고 있습니다.

 

이러한 긍정적인 발표를 본 후 제조업부터 금융, 보건, 물류 등 다양한 산업의 많은 회사들이 AI를 사용하고 있습니다. AI가 거의 일반적인 것으로 빠르게 변화하면서 기술 의존, 개인정보 문제, 기타 윤리적인 문제에 대한 우려도 많습니다.

AI의 윤리: AI 규제가 필요한가?

OpenAI의 급속한 성공에 따라 안전과 윤리적인 문제에 대한 입법자, 규제기관 및 일반 대중 간에 논쟁이 더욱 확대되고 있습니다. 일부 사람들은 AI 생산에서 윤리적인 성장을 더 원하는 반면, 다른 일부는 개인과 회사들이 더 큰 혁신을 가능하게 하기 위해 자유롭게 AI를 사용할 수 있어야 한다고 믿고 있습니다.

 

감독이 없는 상태로 이러한 문제들이 발생할 것이라는 전문가들의 의견도 많습니다.

  • 편견과 차별: 회사들은 로봇이 차별하지 못하므로 AI가 편견을 없애는 데 도움이 된다고 주장하지만, AI 기술은 사람들이 AI를 프로그래밍할 때 사용하는 정보만큼 공정하고 편견이 없습니다. 이미 편향된 데이터로 AI를 코딩할 경우, AI 도구는 편견을 강화하고 지속시킬 뿐입니다.
  • 인간의 의지: 많은 사람들은 AI에 의존하는 성향을 가질 것이라고 우려하며, 이는 사생활과 자기의 인생에 대한 통제권에 영향을 줄 수 있습니다.
  • 데이터 남용: AI는 점점 디지털화된 세계에서 사이버 범죄와의 전투에 도움이 될 수 있습니다. AI는 더 많은 양의 데이터를 분석할 수 있는 능력을 가지므로 이러한 시스템은 잠재적인 위협을 나타낼 수 있는 패턴을 인식할 수 있습니다. 그러나 회사들이 데이터를 수집하여 사람들과 소비자들을 학대하고 조작하는 데 사용할 수도 있다는 우려가 있습니다. 이는 AI가 사람들을 보다 안전하게 하는지 덜 안전하게 하는지에 대한 문제를 제기합니다.
  • 미정된 정보의 확산: AI는 인간이 아니기 때문에 옳고 그름을 이해하지 못합니다. 이로 인해 AI는 부작용으로 거짓과 오도독한 정보를 무심코 확산시킬 수 있는데, 특히 오늘날의 소셜 미디어 시대에는 특히 위험합니다.
  • 투명성의 부재: 대부분의 AI 시스템은 “블랙 박스”처럼 작동합니다. 즉, 이 도구들이 특정 결정에 어떻게 도달하고 왜 그렇게 하는지에 대해 아무도 완전히 알지 못합니다. 이는 투명성의 부족과 책임에 대한 우려를 야기합니다.
  • 일자리의 상실: 업무 관련 가장 큰 우려 중 하나는 일자리의 대체입니다. AI는 근로자의 능력을 향상시킬 수 있지만, 많은 사람들은 순전히 이윤을 선택하여 직원들을 완전히 대체할 것이라는 우려를 가지고 있습니다.
  • 혼돈: 전반적으로 AI가 규제되지 않으면 정보 무기화, 사이버 범죄 및 자율 무기화와 같은 대규모 혼돈으로 이어질 우려가 있습니다.

 

이러한 우려에 대응하기 위해 전문가들은 인류의 이익을 인공지능(AI)의 이익보다 우선시하는 윤리적인 해결책을 더욱 촉구하고 있습니다. 많은 사람들은 계속해서 AI 기술을 구현할 때 인간을 우선시하는 것이 핵심이라고 믿습니다. AI는 결코 인간을 대체하거나 조작하거나 통제하기 위해 존재하는 것이 아니라, 오히려 협력하여 가능한 것을 향상시키기 위해 함께 작업해야 합니다. 이를 위한 가장 좋은 방법 중 하나는 AI 혁신과 AI 관리 사이에 균형을 찾는 것입니다. T

AI 관리: 자가규제 vs 정부법

AI에 관한 정책을 개발할 때 문제는 누가 AI의 윤리적 위험을 규제하거나 통제해야 하는가입니다 (lytics dotcom)?

이를 규제해야 하는 것은 회사 자체와 이해 관계자일까요? 아니면 정부가 모두가 동일한 규칙과 규정을 준수하도록 요구하는 포괄적인 정책을 만들어야 할까요?

누가 규제해야 하는지 결정하는 것 외에도, 규제해야 하는 것은 무엇이며 어떻게 규제해야 하는지에 대한 질문이 있습니다. 이것들이 AI 관리의 세 가지 주요 도전입니다.

누가 규제해야 하는가?

일부 사람들은 정부가 어떻게 AI 감독을 제대로 이해하지 못하는 것으로 보고 있습니다. 정부가 디지털 플랫폼을 규제하려고 노력한 이전의 시도를 고려하면, 그들이 만드는 규칙은 AI와 같은 기술 발전 속도에 대응하기에 충분히 유연하지 않습니다.

따라서 일부 사람들은 대신 AI를 사용하는 회사가 의사결정을 내리기 위해 의사정부 역할을 할 수 있도록 허용해야 한다고 믿고 있습니다. 그러나 이러한 자체 규제적 접근은 데이터 개인정보 문제, 사용자 조작 및 혐오, 거짓 정보 등에 따른 많은 피해를 가져왔습니다.

논쟁은 계속되고 있지만, 기관과 정부 지도자들은 이미 AI 사용을 규제하기 위한 조치를 취하고 있습니다. 예를 들어, E.U. 의회는 이미 포괄적인 AI 규정을 마련하기 위한 중요한 단계를 취했습니다(source). 미국 상원의원 다수당 원내대표인 Chuck Schumer는 AI 규제에 대한 광범위한 계획을 수립하는 데 선도적인 역할을 하고 있습니다(source). 또한 미국 백악관 과학기술처는 이미 AI 권리 선언서(Blueprint for an AI Bill of Rights)의 청사진을 작성하기 시작했습니다(source).

자체 규제에 관해서는, 네 개의 주요 AI 기업이 이미 자가규제 기관를 만들기 위해 협력하고 있습니다. Microsoft, Google, OpenAI 및 Anthropic은 최근에 Frontier Model Forum을 시작하여 회사들이 AI 시스템의 안전하고 책임있는 사용과 개발에 참여하도록 보장하고 있습니다.

무엇을 규제해야 하는가, 그리고 어떻게 규제해야 하는가?

또한 규제해야 할 내용을 정확히 결정해야 하는 것도 도전 사항입니다. 무결성과 투명성과 같은 것들이 주요 관심사입니다. 이러한 우려에 대응하여 국립표준기술연구소(NIST)는 AI 위험관리 프레임워크에서 안전한 AI 관행을 위한 기준선을 정립하였습니다.

연방 정부는 AI의 규제 사항에 대한 라이선스 사용이 규제 감독에 도움이 될 수 있다고 믿고 있습니다. 라이선스는 규제 감독의 도구로 작용할 수는 있지만, AI와 디지털 기술의 영향이 균일하지 않은 경우에는 “일고대통” 솔루션이 되는 단점이 있을 수 있습니다.

EU의 대응책은 더 유연하고 위험 중심적인 AI 규제 프레임워크로, AI의 다양한 사용 사례를 더 잘 다룰 수 있는 다중 계층 접근법을 허용합니다. 위험 수준에 따라 다른 기대 사항이 시행될 것입니다.

마무리

유감스럽게도, 누가 규제를 담당하고 어떻게 규제해야 할지에 대한 명확한 정답은 아직 없습니다. 수많은 옵션과 방법들이 여전히 탐색되고 있습니다. 그러나 OpenAI의 CEO인 Sam Altman은 명확히 AI 감독에 전념하는 연방 기관을 지지하고 있습니다. Microsoft와 Meta는 또한 이전에 국가 AI 규제기관의 개념을 지지한 바 있습니다.

그러나 단단한 결정이 이루어질 때까지 가능한 한 AI를 책임감 있게 사용하는 것이 최선의 실천 방법으로 간주됩니다. 모든 조직은 법적으로 Duty of Care의 하에서 운영해야 합니다. 이를 위반한 기업이 발견되면 법적인 대응이 필요할 수 있습니다.

규제적인 실천은 반드시 필요한 것이 분명합니다 — 예외는 없습니다. 지금은 대중의 이익을 보호하고 투자와 혁신을 촉진하는 가장 좋은 방법을 기업들이 결정하는 것에 달려 있습니다.

주된 이미지 출처: Markus Winkler; Pexels