메뉴

전체기사

신기술/산업·미래교육 미래예측

AIbio로봇,AR/VR·바이오제약

자율차·드론·교통·에너지,기후

코로나와 유망산업/직종,부와성공

로봇 그레이스, 소피아, 아인슈타인등

사랑한 사람 Media Memorial

AIbio소식

AI메타버스

TRANSITION FROM ARTIFICIAL NARROW TO ARTIFICIAL GENERAL INTELLIGENCE GOVERNANCE. 좁은인공지능에서 일반인공지능으로 넘어가는데 필요한 거버넌스로의 전환
박영숙세계미래보고서저자   |   2023.08.23 [09:24]

 

55명의 인공지능 분야의 세계적 리더들이 미래의 가능성을 설명.

 
우리가 AGI 권리에 대한 규칙, 가드레일, 감사 및 검증을 만들고 시행하지 않으면 다양한 형태의 인공 만찬 지능이 우리의 통제를 벗어나 우리가 원하는 대로 나타날 수 없습니다.”
— 제롬 글렌, 밀레니엄 프로젝트 CEO.

워싱턴 DC, 미국, 2023년 8월 22일/ EINPresswire.com / -- 밀레니엄 프로젝트(The Millennium Project)의 새로운 보고서는 신중한 거버넌스 프레임워크가 신속하게 마련되지 않으면 첨단 인공 지능 시스템이 예상보다 빨리 등장하여 전례 없는 위험을 초래할 수 있다고 경고합니다. ' 국제 거버넌스 문제'

라는 제목의 보고서협소 인공 지능에서 일반 인공 지능(AGI)으로의 전환'은 22개 질문에 대해 55명의 AI 전문가로부터 인터뷰와 수집된 통찰력을 정리한 것입니다. AGI 전문가는 미국, 중국, 영국, 캐나다, 유럽 출신입니다. 새로운 상황을 인간과 마찬가지로 또는 더 잘 처리할 수 있는 AI인 AGI를 규제하는 방법에 대해 연합과 러시아가 참여하고 있으며 이러한 전문가 중에는 Sam Altman, Bill Gates 및 Elon Musk가 포함되어 있습니다.

보고서는 AGI가 향후 몇 년 안에 도래할 수 있으며, 이는 인간 능력을 능가하는 AI를 만드는 '지능 폭발'을 의미한다고 밝혔습니다. 거버넌스의 부족은 그러한 시스템이 인간의 가치와 이익에 어긋날 경우 인류에 대한 실존적 위협을 포함하여 재앙적인 결과를 초래할 수 있습니다. 보고서는 인공일반지능(AGI)으로 인한 위험과 기회를 관리하기 위해 적절하게 준비된 기존 거버넌스 모델이 없다는 사실을 발견했습니다. 이는 AI 변화의 속도를 맞추고 예상하며 AI의 가능성을 저해하지 않고 발전시키는 동시에 필요한 보호 장치를 제공할 수 있는 새로운 종류의 유연한 거버넌스의 신속한 개발을 요구합니다.

OpenAI의 공동 창립자인 Ilya Sutskever는 "AGI는 그 어느 때보다 가까워졌습니다. 다음 발전은 인간의 지능을 능가할 수 있습니다"라고 보고서에 인용했습니다. "인간의 가치에 맞추는 것은 중요하지만 어려운 일입니다." AGI Revolution의 저자인 Ben Goertzel은 다음과 같이 덧붙였습니다. “윤리 목록보다는 WHO가 AGI의 개발과 사용을 통제하는 것에 관한 것입니다.”

기타 주요 조사 결과는 다음과 같습니다.

• 의학, 교육, 관리 및 생산성 분야에서 AGI의 이점이 매우 크기 때문에 기업은 선두를 다투고 있습니다.
• AGI가 정치력을 강화할 것이기 때문에 정부는 선두를 다투고 있습니다.
• 국제 협력은 필수적이지만 AI 패권을 놓고 경쟁하는 국가와 기업 간의 경쟁 긴장으로 인해 위협을 받고 있습니다.
• 공유된 위험으로 인해 협력이 필요할 수 있지만 불신을 극복하는 것은 엄청난 과제를 안겨줍니다.
• 거버넌스가 전 세계적으로 신뢰할 수 있고 효과적이려면 잠재적으로 군사 능력을 포함하여 특별한 집행 권한이 필요할 수 있습니다.
• 논란의 여지가 있지만 관리 솔루션을 설계하고 구현하는 데 시간을 허용하려면 연구 개발을 제한하는 제안이 필요할 수 있습니다.
• 효과적인 거버넌스를 개발하기 위한 기간은 짧으며 전례 없는 협업이 필요합니다.

보고서는 옥스포드 교수인 닉 보스트롬(Nick Bostrom)의 말을 인용해 “우리는 모두 함께 이 배에 타고 있다. 상황이 나쁘게 진행된다면 우리 모두는 파멸을 맞이하게 된다”고 말했다.

밀레니엄 프로젝트는 첨단 AI가 인류의 안전한 통제 능력을 초과하기 전에 국가 및 국제 수준에서 AGI 거버넌스와 조정을 마련하기 위한 긴급 조치를 촉구하고 있습니다. "만약 우리가 AGI에 관한 UN 협약과 UN AGI 기관이 규칙, 가드레일, 감사 및 검증 권리를 집행하지 못한다면, 다양한 형태의 인공 만찬 지능이 우리의 통제를 벗어나 우리가 원하는 대로 나타나지 않을 수 있습니다."라고 Jerome은 말합니다. 밀레니엄 프로젝트의 CEO 글렌. "AGI 관리는 인류가 직면한 가장 어려운 문제일 수 있습니다."

보고서는 잠재적으로 인류의 멸종을 포함한 이해관계로 인해 글로벌 협력을 동원하는 데 지연이 있을 수 없다고 경고합니다.

이 작업은 두바이 미래 재단(Dubai Future Foundation)의 지원과 미래 생명 연구소(Future of Life Institute)의 일반적인 지원을 받았습니다.밀레니엄 프로젝트는 전 세계 70개 노드와 3개 지역 네트워크를 갖춘 국제 참여 싱크탱크입니다 . 1996년에 설립되었으며 국제적인 판단을 바탕으로 60개 이상의 미래 연구 프로젝트를 발표했습니다.

보고서 전문은 언론인이 볼 수 있으며 언론 문의는 Jerome Glenn, +1-202-669-4410, Jerome.Glenn@Millennium-Project.org로 문의하십시오.

Jerome C Glenn
밀레니엄 프로젝트
+1 2026694410
여기로 이메일을 보내세요.
소셜 미디어를 방문하세요:
Facebook
Twitter
LinkedIn
Instagram
YouTube

인공 일반 지능: 이제 국제 규정에 대한 작업이 필요합니다!

 

TRANSITION FROM ARTIFICIAL NARROW TO ARTIFICIAL GENERAL INTELLIGENCE GOVERNANCE

좁은인공지능에서 일반인공지능으로 넘어가는데 필요한 거버넌스로의 전환

  • 게시자: JGlenn
  • 2021년 4월 12일
  • 댓글 0개

다운로드를 주문하려면

밀레니엄 프로젝트는 ANI(Artificial Narrow Intelligence)에서 AGI(Artificial General Intelligence)로의 잠재적 전환을 관리하는 방법에 대한 국제 평가의 첫 번째 단계를 완료했습니다. 이 연구는 두바이 미래 재단(Dubai Future Foundation)과 미래 생명 연구소(Future of Life Institute)의 재정적 지원을 받았습니다. 1단계에서는 다음 질문에 대한 미국, 중국, 영국, 유럽 연합, 캐나다 및 러시아의 AGI 리더 55명의 의견을 수집했습니다(리더 목록은 질문 뒤에 표시됨).

이러한 각 질문은 책 전체의 주제가 될 수 있습니다. 자세한 내용을 보려면 웹링크를 통해 짧은 답변을 보강할 수 있습니다.

기원 또는 자기 출현

  1. 오늘날의 AI부터 훨씬 더 유능한 AGI까지 앞으로의 가능한 궤적을 어떻게 구상하시나요?
  2. 이러한 궤도가 통제되지 않거나 잘못 통제될 경우 가장 중요하고 심각한 결과는 무엇입니까?
  3. 인류가 좋아하지 않는 인공 초지능이 나중에 등장하지 않도록 AGI의 주요 초기 조건은 무엇입니까?

가치관, 도덕성, 가치관

  1. GPAI(Global Partnership on Artificial Intelligence) 및 이미 규범, 원칙 및 가치를 식별한 다른 사람들의 작업을 바탕으로 AGI에 어떤 추가 또는 고유 가치를 고려해야 합니까?
  2. 국제조약과 거버넌스 시스템에 가치의 위계가 필요하게 된다면, 가장 우선순위는 무엇이어야 할까요?
  3. 정렬은 어떻게 달성할 수 있나요? 이것이 불가능하다고 생각한다면, 이 상황을 관리하는 가장 좋은 방법은 무엇입니까?

거버넌스 및 규정

  1. 국가와 기업이 글로벌 리더십을 위해 지적 “군비 경쟁”을 벌이고 있는 동안 국제 협약과 글로벌 거버넌스 시스템을 구축하는 데 필요한 국제 협력을 어떻게 관리할 것인가?
  2. AGI의 글로벌 거버넌스에는 어떤 옵션이나 모델이 있습니까?
  3. AGI의 출현을 통제하려는 시도로 인해 어떤 위험이 발생합니까? (일부 조치가 비생산적일 수 있습니까?)
  4. 미래의 AGI에 권리를 할당해야 합니까?
  5. 거버넌스 시스템을 만들 당시 이전에 알려지지 않은 새로운 문제에 대응할 수 있을 만큼 거버넌스가 어떻게 유연할 수 있습니까?
  6. 국제 AGI 조약의 내용을 알리기 위해 어떤 국제 거버넌스 시험, 테스트 또는 실험을 구성할 수 있습니까?
  7. 국제 조약과 거버넌스 시스템은 어떻게 다른 사람들을 밀어내는 권력의 집중화를 방지할 수 있습니까?
  8. 오늘날 AGI의 글로벌 거버넌스에 관해 가장 중요하거나 통찰력 있는 작업이 수행되는 곳은 어디입니까?

제어

  1. 국제 AGI 조약을 효과적으로 만들려면 어떤 집행 권한이 필요합니까?
  2. 조직 범죄와 테러에 의한 AGI 사용을 어떻게 줄이거나 예방할 수 있습니까? (AGI로 인해 발생할 수 있는 새로운 유형의 범죄와 테러를 고려해보세요.)
  3. AGI 감사가 일회성 인증이 아닌 지속적으로 이루어져야 한다고 가정할 때 감사 가치는 어떻게 다루어야 합니까?
  4. AGI 거버넌스 시행 작업을 복잡하게 만드는 혼란은 무엇입니까?
  5. 거버넌스 모델은 유틸리티 기능에서 예상치 못한 바람직하지 않은 행동을 어떻게 수정할 수 있습니까?
  6. 양자 컴퓨팅은 AGI 제어에 어떤 영향을 미칠까요?
  7. 국제 협정과 거버넌스 시스템은 어떻게 AGI "군비 경쟁"과 확대가 예상보다 빠르게 진행되어 통제를 벗어나 전쟁(운동, 알고리즘, 사이버 또는 정보 전쟁)으로 이어지는 것을 방지할 수 있습니까?

마지막으로: 22. 긍정적인 AGI 결과를 얻으려면 어떤 추가 문제 및/또는 질문을 해결해야 합니까?

AGI를 위한 잠재적인 거버넌스 모델의 초기 샘플*

  1. IAEA와 유사한 모델 또는 집행 권한이 있는 WTO와 유사한 모델입니다. 이는 가장 이해하기 쉽지만 AGI를 관리하기에는 너무 정적일 수 있습니다.
  2. 국제 조약과 협력하여 IPCC와 유사한 모델. 이러한 접근 방식은 기후 변화에 대한 거버넌스 시스템으로 이어지지 않았습니다.
  3. 감사 및 라이센스 상태, 정보력별 거버넌스를 갖춘 온라인 실시간 글로벌 집단지성 시스템입니다. 이는 AGI 시스템을 선택하고 사용하는 데 도움이 될 수 있지만 정보력이 AGI의 진화를 관리하는 데 충분하다는 증거는 없습니다.
  4. GGCC(글로벌 거버넌스 조정 위원회)는 국가 제재, 여러 국가의 임시 법적 판결 및 보험료에 따라 유연하게 집행됩니다. 이는 AGI 개발자가 표준 충족을 피할 수 있는 방법이 너무 많습니다.
  5. 감사 및 라이센스에 사용되는 UN, ISO 및/또는 IEEE 표준. 라이센스는 구매에 영향을 미치고 영향력을 가지지만 비준하는 모든 국가와의 국제 협정이나 조약이 필요합니다.
  6. AGI 거버넌스의 다양한 부분을 ITU, WTO, WIPO와 같은 다양한 기관에 맡깁니다. 이 중 일부는 발생할 가능성이 있지만 AGI 시스템의 모든 인스턴스를 관리하기에는 충분하지 않습니다.
  7. 분산형 반자율 TransInstitution. 이것이 가장 효과적일 수 있지만 분산형 반자치 조직과 TransInstitutions 모두 새로운 개념이기 때문에 확립하기가 가장 어렵습니다.

*Horizons 2024-27 계획에 대한 의견을 제공하기 위해 EC와 계약을 맺은 Jerome C. Glenn의 "인공 일반 정보 문제 및 기회"에서 발췌.

1단계의 AGI 전문가 및 사고 리더

  1. Sam Altman, YouTube 및 OpenAI 블로그를 통해 OpenAI CEO
  2. 익명, AGI 실존위험 OECD(퇴역)
  3. 요슈아 벤지오. AI 선구자, 퀘벡 AI 연구소 및 몬트리올 대학교 l
  4. Irakli Beridze, UN 지역 간 범죄 및 정의 Res. 인. 코네티컷 AI 및 로봇공학을 위한
  5. Nick Bostrom, 옥스퍼드 대학교 인류 미래 연구소
  6. OpenAI 공동 창립자 Gregg Brockman
  7. Vint Cerf, 인터넷 전도사, Google 부사장.
  8. Chen Shaoqun, Shenzhen Zhongnong Net Company CEO
  9. 익명, 중국 Jing Dong AI 연구소
  10. 페드로 도밍고스, 워싱턴 대학교
  11. Dan Faggella, Emerj 인공 지능 연구
  12. Lex Fridman, MIT 및 팟캐스트 진행자
  13. 빌 게이츠
  14. Ben Goertzel, SingularityNET CEO
  15. 유발 노아 하라리(Yuval Noah Harari), 이스라엘 히브리대학교
  16. Tristan Harris, 인도적 기술 센터
  17. DeepMind의 CEO이자 공동 창업자인 Demis Hassabis
  18. Geoffrey Hinton, AI 선구자, Google(퇴직)
  19. Lambert Hogenhout, UN 사무국 최고 데이터, 분석 및 신기술
  20. Erik Horvitz, Microsoft 최고 과학 책임자
  21. 어나니머스, 정보기술백인협회, 중국
  22. 어나니머스, 중국현대국제관계연구원
  23. Andrej Karpathy, Open AI, 전 AI S 연구원 Tesla
  24. David Kelley, AGI 연구소
  25. Dafne Koller, Stanford University, Coursera
  26. Ray Kurzweil, Google 기계 학습 엔지니어링 부문 이사
  27. 코너 리히(Connor Leahy) CEO 추측
  28. Yann LeCun, 뉴욕 대학교 교수, Meta 수석 과학자
  29. DeepMind의 공동 창립자 Shane Legg
  30. Fei Fei Li, 스탠포드 대학교, 인간 중심 AI
  31. Erwu Liu, Tongji University AI 및 블록체인 인텔리전스 연구소
  32. 게리 마커스(NYU 명예교수)
  33. Dale Moore, 미국 국방부 AI 컨설턴트
  34. Stability.ai의 CEO인 Emad Mostaque
  35. 엘론 머스크
  36. Gabriel Mukobi, 스탠포드 대학교 박사과정 학생
  37. 익명, 국립 연구 대학 고등 경제 대학
  38. Judea Pearl, UCLA 교수
  39. 구글 CEO 순다르 피차이
  40. 프란체스카 로시(Press) AAAI의 IBM 펠로우이자 IBM의 AI 윤리 글로벌 리더
  41. 익명, 러시아 과학 아카데미
  42. 스튜어트 러셀, UC 버클리
  43. 칼 슈뢰더(SF 작가)
  44. 바트 셀만(Bart Selman), 코넬 대학교
  45. 후안 델 세르, 테크날리아, 스페인
  46. David Shapiro, AGI 정렬 컨설턴트
  47. i8 Ventures의 창립자이자 CEO인 예샤 시반(Yesha Sivan)
  48. Open AI 공동 창립자 Ilya Sutstkever
  49. 잔 탈린, Ct. Cambridge University 및 Future of Life Institute의 실존 위험 연구
  50. Max Tegmark, Future of Life Institute 및 MIT
  51. Peter Voss, Aigo.ai의 CEO 겸 수석 과학자
  52. 폴 워보스(National Science Foundation)(퇴직)
  53. 스티븐 울프램, 울프램 알파, 울프램 언어
  54. 양유동 알리바바 DAMO연구소 소장
  55. Eliezer Yudkowsky 기계 지능 연구소

ANI의 가치와 윤리적 문제를 연구하는 훌륭한 센터가 많이 있지만 AGI로의 전환을 위한 잠재적인 글로벌 거버넌스 모델은 없습니다. ANI, AGI 및 ASI 간의 차이점은 일반적으로 이러한 연구에서 누락됩니다. 심지어 가장 포괄적이고 상세한 미국 국가안보위원회 인공지능 보고서에도 언급이 거의 없습니다. [iv] AI 거버넌스에 대한 현재 작업은 오늘날 전 세계적으로 확산되고 있는 협소한 인공 지능을 따라잡으려고 노력하고 있습니다. 우리는 또한 AGI가 될 수 있는 거버넌스 요구를 예측하기 위해 앞서 나가야 합니다.

AGI 거버넌스 규칙을 너무 빨리 만들면 AGI 개발이 저해될 것이라는 주장이 있습니다. AGI가 언제 가능할지에 대해서는 전문가의 판단이 다양합니다. 그러나 AGI를 개발하기 위해 노력하는 일부 사람들은 빠르면 10년 안에 AGI를 가질 수 있다고 믿습니다. [v] 1) ANI를 AGI 국제 또는 글로벌 협약으로 발전시키는 데 10년이 걸릴 가능성이 높기 때문입니다. 2) 거버넌스 시스템을 설계합니다. 3) 구현을 시작하면 지금부터 잠재적인 거버넌스 접근 방식과 잠재적인 효율성을 탐색하기 시작하는 것이 현명할 것입니다.

밀레니엄 프로젝트는 현재 이 연구를 위한 후원자와 협력자를 찾고 있습니다. Jerome.Glenn@Millennium-Project.org 또는 info@millennium-project.org 로 이메일을 보내세요 .

The Millennium Project의 창립자이자 CEO인 Jerome C. Glenn은 The Millennium Project에서 제작한 이 짧은 비디오에서 올바른 초기 조건을 얻기 위해 지금 NARROW에서 일반 인공 지능으로의 전환을 연구해야 하는 이유를 설명합니다.

업데이트:

  • 2023년 2월 , Horizon Europe의 2차 전략 계획(2025-27)에 대한 예측에 대한 의견을 제공하기 위해 EC와 계약을 맺은 Jerome C. Glenn의 출판물 인공 일반 지능 문제 및 기회 ".
  • 2022년 12월 , 팟캐스트, " ANI(Artificial Narrow Intelligence)에서 AGI(Artificial General Intelligence)로의 전환에 대한 글로벌 거버넌스 ", Jerome C. Glenn과 함께 London Futurist에서 진행.
  • 2022년 12월 , 일반 인공지능 거버넌스 연구의 첫 걸음을 내딛습니다.

[i] 스티븐 호킹스는 AI가 '우리 문명 역사상 최악의 사건 '이 될 수 있다고 말했습니다. https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html

[ii] Elon Musk는 Tesla를 포함하여 모든 고급 AI 개발이 규제되어야 한다고 말합니다 : https://techcrunch.com/2020/02/18/elon-musk-says-all-advanced-ai-development-should-be- 규제 포함-테슬라/

[iii] 마이크로소프트의 빌 게이츠는 AI가 위협이라고 주장합니다 https://www.bbc.com/news/31047780

[iv] 미국 국가안보위원회 인공지능 최종 보고서 전문은 https://www.nscai.gov 에서 확인할 수 있습니다.

[v] AI Multiple, 995명의 전문가 의견: 2060년까지 AGI/singularity [2021 업데이트] https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/ , 2020년 12월 31일

 

 

TRANSITION FROM ARTIFICIAL NARROW TO ARTIFICIAL GENERAL INTELLIGENCE GOVERNANCE

  • Posted by JGlenn
  • On 12 April 2021
  • 0 Comments

 

To order the download

The Millennium Project has completed the first phase of an international assessment of how to govern the potential transition from Artificial Narrow Intelligence (ANI) to potential Artificial General Intelligence (AGI). The research was financially supported by the Dubai Future Foundation and the Future of Life Institute. Phase 1 collected the views of 55 AGI leaders in the US, China, UK, the European Union, Canada, and Russia to the following questions (the list of leaders follows the questions).

Each of these questions could be the subject of an entire book. You can augment your short answers by a weblink for further detail.

Origin or Self-Emergence

  1. How do you envision the possible trajectories ahead, from today’s AI, to much more capable AGI in the future?
  2. What are the most important serious outcomes if these trajectories are not governed, or are governed badly?
  3. What are some key initial conditions for AGI so that an artificial super intelligence does not emerge later that is not to humanity’s liking?

Value alignment, morality, values

  1. Drawing on the work of the Global Partnership on Artificial Intelligence (GPAI) and others that have already identified norms, principles, and values, what additional or unique values should be considered for AGI?
  2. If a hierarchy of values becomes necessary for international treaties and a governance system, what should be the top priorities?
  3. How can alignment be achieved? If you think it is not possible, then what is the best way to manage this situation?

Governance and Regulations

  1. How to manage the international cooperation necessary to build international agreements and a global governance system while nations and corporations are in an intellectual “arms race” for global leadership?
  2. What options or models are there for global governance of AGI?
  3. What risks arise from attempts to govern the emergence of AGI? (Might some measures be counterproductive?)
  4. Should future AGIs be assigned rights?
  5. How can governance be flexible enough to respond to new issues previously unknown at the time of creating that governance system?
  6. What international governance trials, tests, or experiments can be constructed to inform the text of an international AGI treaty?
  7. How can international treaties and a governance system prevent increased centralization of power crowding out others?
  8. Where is the most important or insightful work today being conducted on global governance of AGI?

Control

  1. What enforcement powers will be needed to make an international AGI treaty effective?
  2. How can the use of AGI by organized crime and terrorism be reduced or prevented? (Please consider new types of crimes and terrorism which might be enabled by AGI.)
  3. Assuming AGI audits would have to be continuous rather than one-time certifications, how would audit values be addressed?
  4. What disruptions could complicate the task of enforcing AGI governance?
  5. How can a governance model correct undesirable action unanticipated in utility functions?
  6. How will quantum computing affect AGI control?
  7. How can international agreements and a governance system prevent an AGI “arms race” and escalation from going faster than expected, getting out of control and leading to war, be it kinetic, algorithmic, cyber, or information warfare?

And last:  22. What additional issues and/or questions need to be addressed to have a positive AGI outcome?

Initial sample of potential governance models for AGI*

  1. IAEA-like model or WTO-like with enforcement powers. These are the easiest to understand, but likely to be too static to manage AGI.
  2. IPCC-like model in concert with international treaties.  This approach has not led to a governance system for climate change.
  3. Online real-time global collective intelligence system with audit and licensing status, governance by information power. This would be useful to help select and use an AGI system, but no proof that information power would be sufficient to govern the evolution of AGI.
  4. GGCC (Global Governance Coordinating Committees) would be flexible and enforced by national sanctions, ad hoc legal rulings in different countries, and insurance premiums. This has too many ways for AGI developers to avoid meeting standards.
  5. UN, ISO and/or IEEE standards used for auditing and licensing. Licensing would affect purchases and would have impact, but requires international agreement or treaty with all countries ratifying.
  6. Put different parts of AGI governance under different bodies like ITU, WTO, WIPO. Some of this is likely to happen but would not be sufficient to govern all instances of AGI systems.
  7. Decentralized Semi-Autonomous TransInstitution. This could be the most effective, but the most difficult to establish since both Decentralized Semi-Autonomous Organizations and TransInstitutions are new concepts.

*Drawn from “Artificial General Intelligence Issues and Opportunities,” by Jerome C. Glenn contracted by the EC for input to Horizons 2024-27 planning.

AGI Experts and Thought Leaders in Phase 1

  1. Sam Altman, via YouTube and OpenAI Blog, CEO OpenAI
  2. Anonymous, AGI Existential Risk OECD (ret.)
  3. Yoshua Bengio. AI pioneer, Quebec AI Institute and the University of Montréal
  4. Irakli Beridze, UN Interregional Crime and Justice Res. Ins. Ct. for AI and Robotics
  5. Nick Bostrom, Future of Humanity Institute at Oxford University
  6. Gregg Brockman, OpenAI co-founder
  7. Vint Cerf, Internet Evangelist, V.P. Google.
  8. Shaoqun CHEN, CEO of Shenzhen Zhongnong Net Company
  9. Anonymous, at Jing Dong AI Research Institute, China
  10. Pedro Domingos, University of Washington
  11. Dan Faggella, Emerj Artificial Intelligence Research
  12. Lex Fridman, MIT and Podcast host
  13. Bill Gates
  14. Ben Goertzel, CEO SingularityNET
  15. Yuval Noah Harari, Hebrew University, Israel
  16. Tristan Harris, Center for Humane Technology
  17. Demis Hassabis, CEO and co-founder of DeepMind
  18. Geoffrey Hinton, AI pioneer, Google (ret)
  19. Lambert Hogenhout, Chief Data, Analytics and Emerging Technologies, UN Secretariat
  20. Erik Horvitz, Chief Scientific Officer, Microsoft
  21. Anonymous, Information Technology Hundred People Association, China
  22. Anonymous, China Institute of Contemporary International Relations
  23. Andrej Karpathy, Open AI, former AI S Researcher Tesla
  24. David Kelley, AGI Lab
  25. Dafne Koller, Stanford University, Coursera
  26. Ray Kurzweil, Director of Engineering Machine Learning, Google
  27. Connor Leahy, CEO Conjecture
  28. Yann LeCun, Professor New York University, Chief Scientist for Meta
  29. Shane Legg, co-founder of DeepMind
  30. Fei Fei Li, Stanford University, Human Centered AI
  31. Erwu Liu, Tongji University AI and Blockchain Intelligence Laboratory
  32. Gary Marcus, NYU professor emeritus
  33. Dale Moore, US Dept of Defense AI consultant
  34. Emad Mostaque, CEO of Stability.ai
  35. Elon Musk
  36. Gabriel Mukobi, PhD student Stanford University
  37. Anonymous, National Research University Higher School of Economics
  38. Judea Pearl, Professor UCLA
  39. Sundar Pichai, Google CEO
  40. Francesca Rossi, Pres. of AAAI, IBM Fellow and IBM’s AI Ethics Global Leader
  41. Anonymous, Russian Academy of Science
  42. Stuart Russell, UC Berkeley
  43. Karl Schroeder, Science Fiction Author
  44. Bart Selman, Cornel University
  45. Juan Del Ser, Tecnalia, Spain
  46. David Shapiro, AGI Alignment Consultant
  47. Yesha Sivan, Founder and CEO of i8 Ventures
  48. Ilya Sutstkever, Open AI co-founder
  49. Jaan Tallinn, Ct. Study of Existential Risk at Cambridge Univ., and Future of Life Institute
  50. Max Tegmark, Future of Life Institute and MIT
  51. Peter Voss, CEO and Chief Scientist at Aigo.ai
  52. Paul Werbos, National Science Foundation (ret.)
  53. Stephen Wolfram, Wolfram Alpha, Wolfram Language
  54. Yudong Yang, Alibaba’s DAMO Research Institute
  55. Eliezer Yudkowsky Machine Intelligence Research Institute

There are many excellent centers studying values for and the ethical issues of ANI, but not potential global governance models for the transition to AGI. The distinctions among ANI, AGI, and ASI are usually missing in these studies; even the most comprehensive and detailed US National Security Commission on Artificial Intelligence Report has little mention.[iv] Current work on AI governance is trying to catch up with the artificial narrow intelligence that is proliferating worldwide today; we also need to jump ahead to anticipate governance needs of what AGI could become.

It is argued that creating rules for governance of AGI too soon will stifle its development. Expert judgments vary about when AGI will be possible; however, some working to develop AGI believe it is possible to have AGI as soon as ten years.[v] Since it is likely to take ten years to: 1) develop ANI to AGI international or global agreements; 2) design the governance system; and 3) begin implementation, then it would be wise to begin exploring potential governance approaches and their potential effectiveness now.

The Millennium Project is now seeking sponsors and collaborators for this research. Email Jerome.Glenn@Millennium-Project.org or info@millennium-project.org.

Jerome C. Glenn, Founder and CEO of The Millennium Project, explains why we need to study the transition from NARROW to GENERAL Artificial Intelligence now in order to get the initial conditions right in this short video made by The Millennium Project.

Updates:

  • February 2023, Publication, Artificial General Intelligence Issues and Opportunities” by Jerome C. Glenn contracted by the EC for input to the Foresight for the 2nd Strategic Plan of Horizon Europe (2025-27).
  • December 2022, Podcast, “Global governance of the transition from Artificial Narrow Intelligence (ANI) to Artificial General Intelligence (AGI)“, with Jerome C. Glenn on London Futurist.
  • December 2022, Launch, First steps on General Artificial Intelligence Governance Study.

[i] Stephen Hawkings says A.I. could be ‘worst event in the history of our civilization.’ https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html

[ii] Elon Musk says all advanced AI development should be regulated, including at Teslahttps://techcrunch.com/2020/02/18/elon-musk-says-all-advanced-ai-development-should-be-regulated-including-at-tesla/

[iii] Microsoft’s Bill Gates insists AI is a threat https://www.bbc.com/news/31047780

[iv] The full final report of US National Security Commission on Artificial Intelligence is available at https://www.nscai.gov

[v] AI Multiple, 995 experts opinion: AGI / singularity by 2060 [2021 update] https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/, December 31, 2020

많이 본 뉴스

실시간 기사

URL 복사
x
  • 위에의 URL을 누르면 복사하실수 있습니다.

PC버전 맨위로 갱신

Copyright AI넷. All rights reserved.