밀레니엄 프로젝트는 ANI(Artificial Narrow Intelligence)에서 AGI(Artificial General Intelligence)로의 잠재적 전환을 관리하는 방법에 대한 국제 평가의 첫 번째 단계를 완료했습니다. 이 연구는 두바이 미래 재단(Dubai Future Foundation)과 미래 생명 연구소(Future of Life Institute)의 재정적 지원을 받았습니다. 1단계에서는 다음 질문에 대한 미국, 중국, 영국, 유럽 연합, 캐나다 및 러시아의 AGI 리더 55명의 의견을 수집했습니다(리더 목록은 질문 뒤에 표시됨).
이러한 각 질문은 책 전체의 주제가 될 수 있습니다. 자세한 내용을 보려면 웹링크를 통해 짧은 답변을 보강할 수 있습니다.
기원 또는 자기 출현
- 오늘날의 AI부터 훨씬 더 유능한 AGI까지 앞으로의 가능한 궤적을 어떻게 구상하시나요?
- 이러한 궤도가 통제되지 않거나 잘못 통제될 경우 가장 중요하고 심각한 결과는 무엇입니까?
- 인류가 좋아하지 않는 인공 초지능이 나중에 등장하지 않도록 AGI의 주요 초기 조건은 무엇입니까?
가치관, 도덕성, 가치관
- GPAI(Global Partnership on Artificial Intelligence) 및 이미 규범, 원칙 및 가치를 식별한 다른 사람들의 작업을 바탕으로 AGI에 어떤 추가 또는 고유 가치를 고려해야 합니까?
- 국제조약과 거버넌스 시스템에 가치의 위계가 필요하게 된다면, 가장 우선순위는 무엇이어야 할까요?
- 정렬은 어떻게 달성할 수 있나요? 이것이 불가능하다고 생각한다면, 이 상황을 관리하는 가장 좋은 방법은 무엇입니까?
거버넌스 및 규정
- 국가와 기업이 글로벌 리더십을 위해 지적 “군비 경쟁”을 벌이고 있는 동안 국제 협약과 글로벌 거버넌스 시스템을 구축하는 데 필요한 국제 협력을 어떻게 관리할 것인가?
- AGI의 글로벌 거버넌스에는 어떤 옵션이나 모델이 있습니까?
- AGI의 출현을 통제하려는 시도로 인해 어떤 위험이 발생합니까? (일부 조치가 비생산적일 수 있습니까?)
- 미래의 AGI에 권리를 할당해야 합니까?
- 거버넌스 시스템을 만들 당시 이전에 알려지지 않은 새로운 문제에 대응할 수 있을 만큼 거버넌스가 어떻게 유연할 수 있습니까?
- 국제 AGI 조약의 내용을 알리기 위해 어떤 국제 거버넌스 시험, 테스트 또는 실험을 구성할 수 있습니까?
- 국제 조약과 거버넌스 시스템은 어떻게 다른 사람들을 밀어내는 권력의 집중화를 방지할 수 있습니까?
- 오늘날 AGI의 글로벌 거버넌스에 관해 가장 중요하거나 통찰력 있는 작업이 수행되는 곳은 어디입니까?
제어
- 국제 AGI 조약을 효과적으로 만들려면 어떤 집행 권한이 필요합니까?
- 조직 범죄와 테러에 의한 AGI 사용을 어떻게 줄이거나 예방할 수 있습니까? (AGI로 인해 발생할 수 있는 새로운 유형의 범죄와 테러를 고려해보세요.)
- AGI 감사가 일회성 인증이 아닌 지속적으로 이루어져야 한다고 가정할 때 감사 가치는 어떻게 다루어야 합니까?
- AGI 거버넌스 시행 작업을 복잡하게 만드는 혼란은 무엇입니까?
- 거버넌스 모델은 유틸리티 기능에서 예상치 못한 바람직하지 않은 행동을 어떻게 수정할 수 있습니까?
- 양자 컴퓨팅은 AGI 제어에 어떤 영향을 미칠까요?
- 국제 협정과 거버넌스 시스템은 어떻게 AGI "군비 경쟁"과 확대가 예상보다 빠르게 진행되어 통제를 벗어나 전쟁(운동, 알고리즘, 사이버 또는 정보 전쟁)으로 이어지는 것을 방지할 수 있습니까?
마지막으로: 22. 긍정적인 AGI 결과를 얻으려면 어떤 추가 문제 및/또는 질문을 해결해야 합니까?
AGI를 위한 잠재적인 거버넌스 모델의 초기 샘플*
- IAEA와 유사한 모델 또는 집행 권한이 있는 WTO와 유사한 모델입니다. 이는 가장 이해하기 쉽지만 AGI를 관리하기에는 너무 정적일 수 있습니다.
- 국제 조약과 협력하여 IPCC와 유사한 모델. 이러한 접근 방식은 기후 변화에 대한 거버넌스 시스템으로 이어지지 않았습니다.
- 감사 및 라이센스 상태, 정보력별 거버넌스를 갖춘 온라인 실시간 글로벌 집단지성 시스템입니다. 이는 AGI 시스템을 선택하고 사용하는 데 도움이 될 수 있지만 정보력이 AGI의 진화를 관리하는 데 충분하다는 증거는 없습니다.
- GGCC(글로벌 거버넌스 조정 위원회)는 국가 제재, 여러 국가의 임시 법적 판결 및 보험료에 따라 유연하게 집행됩니다. 이는 AGI 개발자가 표준 충족을 피할 수 있는 방법이 너무 많습니다.
- 감사 및 라이센스에 사용되는 UN, ISO 및/또는 IEEE 표준. 라이센스는 구매에 영향을 미치고 영향력을 가지지만 비준하는 모든 국가와의 국제 협정이나 조약이 필요합니다.
- AGI 거버넌스의 다양한 부분을 ITU, WTO, WIPO와 같은 다양한 기관에 맡깁니다. 이 중 일부는 발생할 가능성이 있지만 AGI 시스템의 모든 인스턴스를 관리하기에는 충분하지 않습니다.
- 분산형 반자율 TransInstitution. 이것이 가장 효과적일 수 있지만 분산형 반자치 조직과 TransInstitutions 모두 새로운 개념이기 때문에 확립하기가 가장 어렵습니다.
*Horizons 2024-27 계획에 대한 의견을 제공하기 위해 EC와 계약을 맺은 Jerome C. Glenn의 "인공 일반 정보 문제 및 기회"에서 발췌.
1단계의 AGI 전문가 및 사고 리더
- Sam Altman, YouTube 및 OpenAI 블로그를 통해 OpenAI CEO
- 익명, AGI 실존위험 OECD(퇴역)
- 요슈아 벤지오. AI 선구자, 퀘벡 AI 연구소 및 몬트리올 대학교 l
- Irakli Beridze, UN 지역 간 범죄 및 정의 Res. 인. 코네티컷 AI 및 로봇공학을 위한
- Nick Bostrom, 옥스퍼드 대학교 인류 미래 연구소
- OpenAI 공동 창립자 Gregg Brockman
- Vint Cerf, 인터넷 전도사, Google 부사장.
- Chen Shaoqun, Shenzhen Zhongnong Net Company CEO
- 익명, 중국 Jing Dong AI 연구소
- 페드로 도밍고스, 워싱턴 대학교
- Dan Faggella, Emerj 인공 지능 연구
- Lex Fridman, MIT 및 팟캐스트 진행자
- 빌 게이츠
- Ben Goertzel, SingularityNET CEO
- 유발 노아 하라리(Yuval Noah Harari), 이스라엘 히브리대학교
- Tristan Harris, 인도적 기술 센터
- DeepMind의 CEO이자 공동 창업자인 Demis Hassabis
- Geoffrey Hinton, AI 선구자, Google(퇴직)
- Lambert Hogenhout, UN 사무국 최고 데이터, 분석 및 신기술
- Erik Horvitz, Microsoft 최고 과학 책임자
- 어나니머스, 정보기술백인협회, 중국
- 어나니머스, 중국현대국제관계연구원
- Andrej Karpathy, Open AI, 전 AI S 연구원 Tesla
- David Kelley, AGI 연구소
- Dafne Koller, Stanford University, Coursera
- Ray Kurzweil, Google 기계 학습 엔지니어링 부문 이사
- 코너 리히(Connor Leahy) CEO 추측
- Yann LeCun, 뉴욕 대학교 교수, Meta 수석 과학자
- DeepMind의 공동 창립자 Shane Legg
- Fei Fei Li, 스탠포드 대학교, 인간 중심 AI
- Erwu Liu, Tongji University AI 및 블록체인 인텔리전스 연구소
- 게리 마커스(NYU 명예교수)
- Dale Moore, 미국 국방부 AI 컨설턴트
- Stability.ai의 CEO인 Emad Mostaque
- 엘론 머스크
- Gabriel Mukobi, 스탠포드 대학교 박사과정 학생
- 익명, 국립 연구 대학 고등 경제 대학
- Judea Pearl, UCLA 교수
- 구글 CEO 순다르 피차이
- 프란체스카 로시(Press) AAAI의 IBM 펠로우이자 IBM의 AI 윤리 글로벌 리더
- 익명, 러시아 과학 아카데미
- 스튜어트 러셀, UC 버클리
- 칼 슈뢰더(SF 작가)
- 바트 셀만(Bart Selman), 코넬 대학교
- 후안 델 세르, 테크날리아, 스페인
- David Shapiro, AGI 정렬 컨설턴트
- i8 Ventures의 창립자이자 CEO인 예샤 시반(Yesha Sivan)
- Open AI 공동 창립자 Ilya Sutstkever
- 잔 탈린, Ct. Cambridge University 및 Future of Life Institute의 실존 위험 연구
- Max Tegmark, Future of Life Institute 및 MIT
- Peter Voss, Aigo.ai의 CEO 겸 수석 과학자
- 폴 워보스(National Science Foundation)(퇴직)
- 스티븐 울프램, 울프램 알파, 울프램 언어
- 양유동 알리바바 DAMO연구소 소장
- Eliezer Yudkowsky 기계 지능 연구소
ANI의 가치와 윤리적 문제를 연구하는 훌륭한 센터가 많이 있지만 AGI로의 전환을 위한 잠재적인 글로벌 거버넌스 모델은 없습니다. ANI, AGI 및 ASI 간의 차이점은 일반적으로 이러한 연구에서 누락됩니다. 심지어 가장 포괄적이고 상세한 미국 국가안보위원회 인공지능 보고서에도 언급이 거의 없습니다. [iv] AI 거버넌스에 대한 현재 작업은 오늘날 전 세계적으로 확산되고 있는 협소한 인공 지능을 따라잡으려고 노력하고 있습니다. 우리는 또한 AGI가 될 수 있는 거버넌스 요구를 예측하기 위해 앞서 나가야 합니다.
AGI 거버넌스 규칙을 너무 빨리 만들면 AGI 개발이 저해될 것이라는 주장이 있습니다. AGI가 언제 가능할지에 대해서는 전문가의 판단이 다양합니다. 그러나 AGI를 개발하기 위해 노력하는 일부 사람들은 빠르면 10년 안에 AGI를 가질 수 있다고 믿습니다. [v] 1) ANI를 AGI 국제 또는 글로벌 협약으로 발전시키는 데 10년이 걸릴 가능성이 높기 때문입니다. 2) 거버넌스 시스템을 설계합니다. 3) 구현을 시작하면 지금부터 잠재적인 거버넌스 접근 방식과 잠재적인 효율성을 탐색하기 시작하는 것이 현명할 것입니다.
밀레니엄 프로젝트는 현재 이 연구를 위한 후원자와 협력자를 찾고 있습니다. Jerome.Glenn@Millennium-Project.org 또는 info@millennium-project.org 로 이메일을 보내세요 .
The Millennium Project의 창립자이자 CEO인 Jerome C. Glenn은 The Millennium Project에서 제작한 이 짧은 비디오에서 올바른 초기 조건을 얻기 위해 지금 NARROW에서 일반 인공 지능으로의 전환을 연구해야 하는 이유를 설명합니다.업데이트:
- 2023년 2월 , Horizon Europe의 2차 전략 계획(2025-27)에 대한 예측에 대한 의견을 제공하기 위해 EC와 계약을 맺은 Jerome C. Glenn의 출판물 " 인공 일반 지능 문제 및 기회 ".
- 2022년 12월 , 팟캐스트, " ANI(Artificial Narrow Intelligence)에서 AGI(Artificial General Intelligence)로의 전환에 대한 글로벌 거버넌스 ", Jerome C. Glenn과 함께 London Futurist에서 진행.
- 2022년 12월 , 일반 인공지능 거버넌스 연구의 첫 걸음을 내딛습니다.
[i] 스티븐 호킹스는 AI가 '우리 문명 역사상 최악의 사건 '이 될 수 있다고 말했습니다. https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html
[ii] Elon Musk는 Tesla를 포함하여 모든 고급 AI 개발이 규제되어야 한다고 말합니다 : https://techcrunch.com/2020/02/18/elon-musk-says-all-advanced-ai-development-should-be- 규제 포함-테슬라/
[iii] 마이크로소프트의 빌 게이츠는 AI가 위협이라고 주장합니다 https://www.bbc.com/news/31047780
[iv] 미국 국가안보위원회 인공지능 최종 보고서 전문은 https://www.nscai.gov 에서 확인할 수 있습니다.
[v] AI Multiple, 995명의 전문가 의견: 2060년까지 AGI/singularity [2021 업데이트] https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/ , 2020년 12월 31일
TRANSITION FROM ARTIFICIAL NARROW TO ARTIFICIAL GENERAL INTELLIGENCE GOVERNANCE
- Posted by JGlenn
- On 12 April 2021
- 0 Comments
The Millennium Project has completed the first phase of an international assessment of how to govern the potential transition from Artificial Narrow Intelligence (ANI) to potential Artificial General Intelligence (AGI). The research was financially supported by the Dubai Future Foundation and the Future of Life Institute. Phase 1 collected the views of 55 AGI leaders in the US, China, UK, the European Union, Canada, and Russia to the following questions (the list of leaders follows the questions).
Each of these questions could be the subject of an entire book. You can augment your short answers by a weblink for further detail.
Origin or Self-Emergence
- How do you envision the possible trajectories ahead, from today’s AI, to much more capable AGI in the future?
- What are the most important serious outcomes if these trajectories are not governed, or are governed badly?
- What are some key initial conditions for AGI so that an artificial super intelligence does not emerge later that is not to humanity’s liking?
Value alignment, morality, values
- Drawing on the work of the Global Partnership on Artificial Intelligence (GPAI) and others that have already identified norms, principles, and values, what additional or unique values should be considered for AGI?
- If a hierarchy of values becomes necessary for international treaties and a governance system, what should be the top priorities?
- How can alignment be achieved? If you think it is not possible, then what is the best way to manage this situation?
Governance and Regulations
- How to manage the international cooperation necessary to build international agreements and a global governance system while nations and corporations are in an intellectual “arms race” for global leadership?
- What options or models are there for global governance of AGI?
- What risks arise from attempts to govern the emergence of AGI? (Might some measures be counterproductive?)
- Should future AGIs be assigned rights?
- How can governance be flexible enough to respond to new issues previously unknown at the time of creating that governance system?
- What international governance trials, tests, or experiments can be constructed to inform the text of an international AGI treaty?
- How can international treaties and a governance system prevent increased centralization of power crowding out others?
- Where is the most important or insightful work today being conducted on global governance of AGI?
Control
- What enforcement powers will be needed to make an international AGI treaty effective?
- How can the use of AGI by organized crime and terrorism be reduced or prevented? (Please consider new types of crimes and terrorism which might be enabled by AGI.)
- Assuming AGI audits would have to be continuous rather than one-time certifications, how would audit values be addressed?
- What disruptions could complicate the task of enforcing AGI governance?
- How can a governance model correct undesirable action unanticipated in utility functions?
- How will quantum computing affect AGI control?
- How can international agreements and a governance system prevent an AGI “arms race” and escalation from going faster than expected, getting out of control and leading to war, be it kinetic, algorithmic, cyber, or information warfare?
And last: 22. What additional issues and/or questions need to be addressed to have a positive AGI outcome?
Initial sample of potential governance models for AGI*
- IAEA-like model or WTO-like with enforcement powers. These are the easiest to understand, but likely to be too static to manage AGI.
- IPCC-like model in concert with international treaties. This approach has not led to a governance system for climate change.
- Online real-time global collective intelligence system with audit and licensing status, governance by information power. This would be useful to help select and use an AGI system, but no proof that information power would be sufficient to govern the evolution of AGI.
- GGCC (Global Governance Coordinating Committees) would be flexible and enforced by national sanctions, ad hoc legal rulings in different countries, and insurance premiums. This has too many ways for AGI developers to avoid meeting standards.
- UN, ISO and/or IEEE standards used for auditing and licensing. Licensing would affect purchases and would have impact, but requires international agreement or treaty with all countries ratifying.
- Put different parts of AGI governance under different bodies like ITU, WTO, WIPO. Some of this is likely to happen but would not be sufficient to govern all instances of AGI systems.
- Decentralized Semi-Autonomous TransInstitution. This could be the most effective, but the most difficult to establish since both Decentralized Semi-Autonomous Organizations and TransInstitutions are new concepts.
*Drawn from “Artificial General Intelligence Issues and Opportunities,” by Jerome C. Glenn contracted by the EC for input to Horizons 2024-27 planning.
AGI Experts and Thought Leaders in Phase 1
- Sam Altman, via YouTube and OpenAI Blog, CEO OpenAI
- Anonymous, AGI Existential Risk OECD (ret.)
- Yoshua Bengio. AI pioneer, Quebec AI Institute and the University of Montréal
- Irakli Beridze, UN Interregional Crime and Justice Res. Ins. Ct. for AI and Robotics
- Nick Bostrom, Future of Humanity Institute at Oxford University
- Gregg Brockman, OpenAI co-founder
- Vint Cerf, Internet Evangelist, V.P. Google.
- Shaoqun CHEN, CEO of Shenzhen Zhongnong Net Company
- Anonymous, at Jing Dong AI Research Institute, China
- Pedro Domingos, University of Washington
- Dan Faggella, Emerj Artificial Intelligence Research
- Lex Fridman, MIT and Podcast host
- Bill Gates
- Ben Goertzel, CEO SingularityNET
- Yuval Noah Harari, Hebrew University, Israel
- Tristan Harris, Center for Humane Technology
- Demis Hassabis, CEO and co-founder of DeepMind
- Geoffrey Hinton, AI pioneer, Google (ret)
- Lambert Hogenhout, Chief Data, Analytics and Emerging Technologies, UN Secretariat
- Erik Horvitz, Chief Scientific Officer, Microsoft
- Anonymous, Information Technology Hundred People Association, China
- Anonymous, China Institute of Contemporary International Relations
- Andrej Karpathy, Open AI, former AI S Researcher Tesla
- David Kelley, AGI Lab
- Dafne Koller, Stanford University, Coursera
- Ray Kurzweil, Director of Engineering Machine Learning, Google
- Connor Leahy, CEO Conjecture
- Yann LeCun, Professor New York University, Chief Scientist for Meta
- Shane Legg, co-founder of DeepMind
- Fei Fei Li, Stanford University, Human Centered AI
- Erwu Liu, Tongji University AI and Blockchain Intelligence Laboratory
- Gary Marcus, NYU professor emeritus
- Dale Moore, US Dept of Defense AI consultant
- Emad Mostaque, CEO of Stability.ai
- Elon Musk
- Gabriel Mukobi, PhD student Stanford University
- Anonymous, National Research University Higher School of Economics
- Judea Pearl, Professor UCLA
- Sundar Pichai, Google CEO
- Francesca Rossi, Pres. of AAAI, IBM Fellow and IBM’s AI Ethics Global Leader
- Anonymous, Russian Academy of Science
- Stuart Russell, UC Berkeley
- Karl Schroeder, Science Fiction Author
- Bart Selman, Cornel University
- Juan Del Ser, Tecnalia, Spain
- David Shapiro, AGI Alignment Consultant
- Yesha Sivan, Founder and CEO of i8 Ventures
- Ilya Sutstkever, Open AI co-founder
- Jaan Tallinn, Ct. Study of Existential Risk at Cambridge Univ., and Future of Life Institute
- Max Tegmark, Future of Life Institute and MIT
- Peter Voss, CEO and Chief Scientist at Aigo.ai
- Paul Werbos, National Science Foundation (ret.)
- Stephen Wolfram, Wolfram Alpha, Wolfram Language
- Yudong Yang, Alibaba’s DAMO Research Institute
- Eliezer Yudkowsky Machine Intelligence Research Institute
There are many excellent centers studying values for and the ethical issues of ANI, but not potential global governance models for the transition to AGI. The distinctions among ANI, AGI, and ASI are usually missing in these studies; even the most comprehensive and detailed US National Security Commission on Artificial Intelligence Report has little mention.[iv] Current work on AI governance is trying to catch up with the artificial narrow intelligence that is proliferating worldwide today; we also need to jump ahead to anticipate governance needs of what AGI could become.
It is argued that creating rules for governance of AGI too soon will stifle its development. Expert judgments vary about when AGI will be possible; however, some working to develop AGI believe it is possible to have AGI as soon as ten years.[v] Since it is likely to take ten years to: 1) develop ANI to AGI international or global agreements; 2) design the governance system; and 3) begin implementation, then it would be wise to begin exploring potential governance approaches and their potential effectiveness now.
The Millennium Project is now seeking sponsors and collaborators for this research. Email Jerome.Glenn@Millennium-Project.org or info@millennium-project.org.
Jerome C. Glenn, Founder and CEO of The Millennium Project, explains why we need to study the transition from NARROW to GENERAL Artificial Intelligence now in order to get the initial conditions right in this short video made by The Millennium Project.Updates:
- February 2023, Publication, “Artificial General Intelligence Issues and Opportunities” by Jerome C. Glenn contracted by the EC for input to the Foresight for the 2nd Strategic Plan of Horizon Europe (2025-27).
- December 2022, Podcast, “Global governance of the transition from Artificial Narrow Intelligence (ANI) to Artificial General Intelligence (AGI)“, with Jerome C. Glenn on London Futurist.
- December 2022, Launch, First steps on General Artificial Intelligence Governance Study.
[i] Stephen Hawkings says A.I. could be ‘worst event in the history of our civilization.’ https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html
[ii] Elon Musk says all advanced AI development should be regulated, including at Tesla: https://techcrunch.com/2020/02/18/elon-musk-says-all-advanced-ai-development-should-be-regulated-including-at-tesla/
[iii] Microsoft’s Bill Gates insists AI is a threat https://www.bbc.com/news/31047780
[iv] The full final report of US National Security Commission on Artificial Intelligence is available at https://www.nscai.gov
[v] AI Multiple, 995 experts opinion: AGI / singularity by 2060 [2021 update] https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/, December 31, 2020