소프트웨어(SW) 통계포털은 SW생산, SW수출, SW인력, 신SW산업 분야 등 소프트웨어와 관련된 다양한 통계를 제공하고 있습니다.
최근 전 산업과 일상에서 AI의 활용이 폭넓게 이뤄지고 있으나, 한편으로는 AI 위험에 대한 우려 및 AI로 인한 사건 수가 증가하면서 AI 위험 대응 요구도 확대되고 있다. 이에 따라 각국 정부와 학계, 업계 등 이해당사자가 AI의 위험을 방지하고 안전하고 신뢰할 수 있는 AI를 개발 및 도입하기 위해 노력하고 있다. 본 보고서에서는 액센츄어와 스탠퍼드 대학교가 실시한 글로벌 기업의 책임 있는 AI에 대한 조치 인식 조사를 인용하여 책임 있는 AI 영역별 대응 수준을 진단하고, 주요 기업별 전담 조직 및 AI 안전 프레임워크 현황 사례를 조사하여 기업의 구체적인 책임 있는 AI에 관한 노력에 대해 살펴보았다. 액센츄어와 스탠퍼드 대학교의 조사 결과, 기업은 개인정보 보호 및 데이터 거버넌스, 신뢰성 및 보안, 투명성 및 설명 가능성, 공정성 등 책임 있는 AI의 요인별 대응을 추진하고 있으며, 개인정보 보호 및 데이터 거버넌스 측면의 대응 수준이 가장 높게 진단되었다. 그러나, AI 모델 발전에 따른 결과 설명의 어려움, 국가별 공정성의 기준에 대한 차이 등의 사유로 투명성 및 설명 가능성, 공정성 부문에 대한 향후 조치를 향상시킬 필요가 있다. 국내외 기업별 사례 조사 결과, 주요 기업들은 AI 모델의 평가와 개발·배포 여부에 대한 의사결정을 할 수 있는 전담 조직을 설립하고, 전담 조직에 의해 AI의 위험성을 정의하고 평가하는 체계를 구축하고 있다. 국내 기업은 계열사 간 컨센서스를 위한 협의체를 운영하는 특징이 있으며, 산업으로의 AI 적용을 위한 과제별 위험 요인을 분류하고 평가하는 체계를 도입하고 있다. 글로벌 조사와 유사하게, 공정성 부문은 제도적인 가이드라인 수준으로 기업의 실질적인 조치가 미흡한 상황으로 향후 개선이 필요하다. 본 보고서의 결과는 각국 정부가 AI 규제에 관한 논의와 실행을 본격화되는 가운데, 기업들이 전담 조직을 구축하고, AI 안전 프레임워크를 수립 및 준수함으로써 책임 있는 AI를 정착시키기 위해 노력하고 있음을 보여준다. 앞으로 국내외 기업들의 안전하고 책임 있는 AI 개발 및 사용을 위한 지속적인 노력이 요구된다. Executive Summary Recently, AI has been widely utilized in all industries and daily life, but on the other hand, as concerns about AI risks and the number of incidents caused by AI increase, the demand for AI risk response is also expanding. Consequently, all stakeholders, including governments, academia, and industry, are working to prevent AI risks and ensure the development and implementation of safe and trustworthy AI. This report cites a survey of global companies' awareness of responsible AI measures conducted by Accenture and Stanford University to diagnose the level of response in each area of responsible AI, and investigates case studies of dedicated organizations and frameworks in major companies to explore specific efforts towards responsible AI. According to research conducted by Accenture and Stanford University, Global survey results show that companies are pursuing responses to responsible AI factors such as privacy protection and data governance; reliability and security; transparency and explainability; and fairness. The response level in privacy protection and data governance was diagnosed as the highest. However, due to difficulties in explaining the result of advanced AI models, challenges in processing different languages, and differences in fairness standards across countries, there is a need for improved measures in transparency, explainability, and fairness in the future. As a result of the survey of domestic and global companies, major companies are establishing dedicated organizations capable of evaluating AI models and making decisions on whether to develop and distribute them, and are establishing a system to define and evaluate the risks of AI through dedicated organizations. Domestic companies are characterized by operating a consultative body for consensus among affiliates, and are introducing a system to classify and evaluate risk factors for each task for applying AI to the industry. Similar to the Accenture survey, the fairness sector is at the level of institutional guidelines, and actual measures by companies are insufficient, so it can be said that improvement is needed in the future. The results of this report show that while governments around the world are discussing and implementing AI regulations, companies are making efforts to establish responsible AI by establishing dedicated organizations and establishing and complying with frameworks. In the future, efforts will be required to develop and use safe AI technology across the entire AI ecosystem.
유럽연합(EU)의 인공지능법(AI Act)은 AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적, 법적, 사회적 영향에 대응하기 위해 마련된 최초의 포괄적인 AI 규제 법안이다. 이 법은 2024년 3월 유럽의회에서 통과된 이후 5월 유럽이사회에서 최종 승인했으며, 6개월에서 36개월 후부터 단계적으로 시행될 예정이다. EU AI 법은 AI 시스템을 위험 수준에 따라 분류하는 것이 주요 특징이며, 이 보고서는 AI의 분류의 정의 및 예시와 이에 따르는 의무 사항들을 정리한다. '수용 불가 위험 AI 시스템'은 인간의 존엄성, 자유, 평등, 차별금지, 민주주의 및 법치와 같은 EU의 기본 가치를 위반하는 경우 사용이 전면 금지된다. '고위험 AI 시스템'은 생체인식, 중요 인프라, 교육, 필수 서비스 등 사회적으로 민감한 분야에 사용될 때 높은 수준의 규제를 받게 되며, '제한된 위험성을 갖는 AI 시스템'은 비교적 낮은 위험을 가지고 있지만, 사용자와의 상호작용 과정에서 일정한 투명성이 요구된다. 마지막으로, '저위험 AI 시스템'은 일상적인 상업적 또는 개인적 용도로 사용되며, 비교적 낮은 위험성을 지녀 규제 부담이 최소화된다. 이 법안은 AI 정책 표준을 설정하고, 기업들의 AI 개발 방식을 변화시키며, 윤리적이고 책임 있는 AI 발전에 영향을 미칠 것으로 예상된다. EU의 규제는 종종 글로벌 표준이 되는 경향이 있어, AI 법이 전 세계 AI 정책에 미칠 영향이 클 것이다. 기업 차원에서는, EU 내에 법인이나 사무소를 두고 있지 않은 기업도 EU에서 AI 시스템이 이용될 경우 이 법 규제사항을 적용을 받게 되며, 공급자뿐만 아니라 배포자, 수입업자, 유통업자에게도 의무가 부과되어 광범위한 기업에 영향을 미칠 것으로 예상되어 면밀한 검토와 대비책이 필요할 것이다. Executive Summary The European Union (EU) Artificial Intelligence Act is the first comprehensive AI regulatory bill designed to address the ethical, legal, and social impacts resulting from the rapid development and widespread application of AI technologies. Passed by the European Parliament in March 2024 and subsequently approved by the European Council in May 2024, the Act is set to be implemented in stages, starting between six and thirty-six months from its approval. A key feature of the EU AI Act is the classification of AI systems based on their risk levels. This report outlines the definitions and examples of these classifications, along with the corresponding obligations. AI systems that pose an "unacceptable risk" are banned entirely if they violate fundamental EU values such as human dignity, freedom, equality, non-discrimination, democracy, and the rule of law. "high-risk AI systems" are subject to stringent regulations when used in socially sensitive areas such as biometric identification, critical infrastructure, education, and essential services. "limited-risk AI systems" carry relatively lower risk but require a certain level of transparency in their interaction with users. Finally, "low-risk AI systems" are used for everyday commercial or personal purposes, involve minimal regulatory burden, and are considered to have relatively low risk. This Act is expected to set AI policy standards, alter corporate AI development practices, and influence the ethical and responsible advancement of AI. The EU's regulations often become global benchmarks, meaning the AI Act could significantly impact AI policies worldwide. For corporations, even those without a physical presence in the EU, compliance with these regulations will be necessary if their AI systems are used within the EU. Obligations are not only imposed on providers but also on distributors, importers, and other entities, necessitating thorough review and proactive measures by a wide range of businesses.
생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.
현재 인류가 직면한 최대의 위험은 기후위기다. 단기적으로는 극한 기상이 기승을 부리고, 장기적으로는 생물 다양성 감소에 따른 생태계 붕괴까지 이어질 수 있다. 이에 주요 선진국을 포함한 전 세계 130여개국이 기후위기 극복을 위해 2050년까지 탄소중립을 달성하겠다고 선언했다. 탄소중립은 이산화탄소를 비롯한 온실가스의 순 배출을 제로로 만드는 것을 의미하며, 청정에너지 사용 확대, 에너지 소비의 효율화, 온실 가스 고정 등을 통해 이룰 수 있다. 이처럼 탄소중립을 지원하고 기후변화에 대응하는 기술을 ‘기후기술’이라 칭한다. 기후기술 산업은 기후위기 극복의 핵심이 될 뿐 아니라 선진국의 차세대 성장 동력으로도 주목 받는다. 최근 수 년 간 빅데이터, AI 등의 비약적 발전으로 다양한 산업 분야에서 혁신을 이끌어 낸 SW 기술은 기후기술 산업에서도 중요한 역할을 차지한다. 특히, 국내 온실가스 배출량의 약 87%를 차지(2021년 기준)하는 에너지 분야에서 SW는 재생에너지의 불확실성을 줄여 안정적 공급을 지원하고, 산업․건물․수송 등의 에너지 소비 효율을 증진하는 데에 적극 활용되고 있다. 탄소중립 달성을 위해 SW(SW for 탄소중립)가 이미 전방위적으로 활약하고 있으며, 향후에도 더욱 중요한 역할을 담당할 것으로 기대된다. 반면, 디지털 전환, 생성 AI 보편화 등으로 인해 SW 산업이 소모하는 전력량이 급증하는 것은 또 다른 문제다. 데이터센터의 연간 전력소모량은 2022년 기준 460TWh로 프랑스(425), 독일(490)의 국가 연간 전력소모량과 유사하며, 향후 더욱 급증할 전망이다. 따라서 국가 경쟁력의 핵심으로 떠오르는 AI, 빅데이터를 비롯한 SW 산업의 지속가능한 성장을 위해서도 탄소중립이 필요(탄소중립 for SW)하다. 이는 AI 반도체 및 데이터센터의 저전력화, 친환경 SW 생태계 구축 등으로 가능하다. 본 보고서는 온실가스 배출의 주원인인 에너지 분야에서, 탄소중립을 지원하는 SW 기술 및 기업의 사례를 탐구했다. 에너지 공급 쪽에서는 ‘재생에너지(식스티헤르츠)’, 에너지 소비 쪽에서는 ‘AI 반도체(리벨리온, 사피온, 퓨리오사AI) 및 데이터센터(구글)’, ‘SW 개발(그린SW재단)’, ‘건물(에너지엑스)’ 분야에 대해 현재 성과를 보이는 기업을 선정했다. 사례 연구를 기반으로 기후위기 극복에 기여하는 SW 기술의 실효성을 살펴보고, 탄소중립 달성에 SW 기술이 더욱 적극적으로 도입 및 활약하기 위해서 필요한 정책적 시사점을 도출하고자 한다. Executive Summary The greatest threat to humanity today is climate change. In the short term, extreme weather patterns prevail, while in the long term, it could lead to ecosystem collapse due to the reduction in biodiversity. To tackle this, over 130 countries worldwide, including major advanced nations, have pledged to achieve carbon neutrality by 2050 to combat climate change. Carbon neutrality refers to achieving a net zero emission of greenhouse gases, including carbon dioxide, through measures such as expanding clean energy usage, enhancing energy efficiency, CCUS(carbon capture utilization and sotorage) and so on. The technology supporting carbon neutrality and addressing climate change is referred to as "climate technology." The climate technology industry not only plays a crucial role in addressing climate change but also attracts attention as a future growth driver for advanced nations. In recent years, software (SW) technologies, driven by significant advancements such as big data and AI, have led innovations across various industries. SW technology also plays a important role in the climate technology industry. Particularly in the energy sector, which accounts for approximately 87% of domestic greenhouse gas emissions (as of 2021), SW helps support stable renewable energy supply by reducing the uncertainty, and enhances energy efficiency in industries, buildings, and transportation. SW is already actively contributing to achieving carbon neutrality (SW for CN) and is expected to play an even more significant role in the future. However, the increasing power consumption by the SW industry due to digital transformation and widespread adoption of AI poses another challenge. The annual power consumption of data centers is approximately 460TWh as of 2022, which is similar to the national annual power consumption of countries like France(425) and Germany(490). Therefore, achieving carbon neutrality is necessary for the sustainable growth of the SW industry (CN for SW), including AI and big data, which are emerging as key drivers of national competitiveness. This can be achieved through low-power AI chips and data center greening efforts. This report explores SW technologies and companies supporting carbon neutrality in the energy sector, the primary source of greenhouse gas emissions. It identifies companies demonstrating success in renewable energy(Sixtyhertz), AI chips(Rebellion, Sapeon, FuriosaAI), data centers(Google), SW development (Green Software Foundation), and building(EnergyX) sectors. Through case studies, it examines the effectiveness of SW technologies in addressing climate change and derives policy implications to facilitate the more proactive adoption and deployment of SW technologies for achieving carbon neutrality.
국가의 운영원리가 발전에 기반한 효율성과 정의에 기반한 책임성이 수용되는 방향으로 변화하면서 경제적 가치뿐만 아니라 사회적 가치에 대한 관심이 증가하였다. 정부는 물론 민간기업에서도 발전을 내세우면서 환경을 소홀히 하지 않고 이윤을 창출하면서 공정의 가치를 놓치지 않는다. 이를 분명하게 보여주는 것이 ESG다. ESG는 환경(Environment), 사회(Social), 지배구조(Governance)의 약자로 지속가능성(Sustainability)을 달성하기 위해 비재무적 요소를 고려하는 기업 경영 방식이다. ESG에 대한 정부의 관심과 기업의 노력으로 인해 여러 산업 분야의 기업 경영에 있어 ESG는 더 이상 선택이 아닌 필수적인 요소로 자리 잡았다. 최근 디지털 전환이 가속화되면서 이러한 변화에 적합한 방향으로 ESG 경영에도 변화가 발생하고 있다. ESG 경영에 디지털 기술이 접목되어 기존에 비해 효율적인 방식으로 ESG 경영 방식이 변화하는 추세다. 본 보고서는 이러한 패러다임에 주목하여 디지털 ESG라는 새로운 개념에 대한 정립과 해외 및 국내 사례 검토를 통해 지속가능한 ESG 생태계 조성을 논의하였다. 먼저, 디지털 ESG를 “디지털 기술을 통해 효율적으로 사회문제를 해결함으로써 ESG를 효과적으로 달성하고 사회적 가치를 창출하는 것”으로 정의하였다. 이후 대표적으로 디지털 기술을 활용하여 효율적인 방식으로 ESG를 추진 중인 MS, 지멘스, 삼성SDS, HD한국조선해양 네 개의 기업과 그린소프트웨어 재단의 사례를 살펴보았다. 이를 바탕으로 본 보고서는 지속가능한 ESG 생태계 조성을 위해 디지털 ESG의 적극적인 실현과 기업 간 노하우를 교류할 수 있는 학습의 장이 마련되어야 함을 시사한다. Executive Summary As the country's operating principles changed to accept development-based efficiency and justice-based responsibility, interest in not only economic values but also social values increased. Not only the government but also private companies do not neglect the environment while promoting development and do not lose sight of the value of fairness while generating profits. ESG clearly shows this. ESG stands for Environment, Society, and Governance and is a corporate management method that considers non-financial factors to achieve sustainability. Due to the government's interest in ESG and corporate efforts, ESG has become an essential factor in corporate management in various industries, no longer an option. Recently, as digital transformation has accelerated, changes are occurring in ESG management in a direction appropriate for this change. As digital technology is applied to ESG management, ESG management methods are changing in a more efficient manner than before. This report focuses on this paradigm and discusses the creation of a sustainable ESG ecosystem through the establishment of a new concept of digital ESG and case analysis. First, digital ESG is defined as “effectively achieving ESG and creating social value by efficiently solving social problems through digital technology.” Afterwards, we looked at the cases of four representative companies, MS, Siemens, Samsung SDS, and HD Korea Shipbuilding & Offshore Engineering, that are promoting ESG in an efficient manner using digital technology. Based on this, this report suggests that opportunities for exchange and learning between companies must be provided to create a sustainable ESG ecosystem is needed.
디지털 심화 사회에서 소프트웨어는 점점 더 중추적인 역할을 맡으며 산업 전반에 걸쳐 고부가가치를 창출하고 있다. 특히 모바일 컴퓨팅, 양자컴퓨터, 사물인터넷(IoT), 자율주행차, 빅데이터, 인공지능(AI), 로봇공학, 블록체인 등 4차 산업혁명의 핵심 영역에서 기술 발전을 가속화하는 중요한 요소로 자리 잡고 있다. 디지털 전환 가속은 디지털 사회의 복잡성과 의존성을 심화시키며 잠재적 위협이 되는 한편 디지털 기술을 활용한 안전 고도화의 기반으로도 자리매김한다. 소프트웨어 적용 확대로 인한 잠재적 위험 증가는 신체적 상해뿐만 아니라 사회적, 경제적 손실을 유발하는 사고로 이어질 수 있다. 이제 자연적·사회적 재난 사례의 증가뿐 아니라 디지털 공간에서의 안전 위협 사례가 빈번함에 따라, 소프트웨어 안전 확보는 주요 과제로 더욱 대두된다. 소프트웨어 안전은 외부 침해 없이 소프트웨어로 인해 발생할 수 있는 사고로부터 인간의 생명이나 신체에 대한 위험에 대비하는 상태를 의미한다. 이는 'Safety of Software'와 'Safety through Software' 두 가지 측면으로 좀 더 나누어 볼 수 있다. 'Safety of Software'은 소프트웨어 자체의 무결성을 보증하며, 사용자와 이용자에게 미칠 수 있는 위험으로부터 안전하게 보호하는 소프트웨어 설계를 포함한다. 즉, 소프트웨어로 인한 사고가 발생하지 않도록 소프트웨어 자체 품질 수준을 확보하는 것을 염두에 둔다. 'Safety through Software'은 소프트웨어 안전 기능을 중점으로 하여 발생 가능한 사고를 감소 및 예방하고, 비상 상황에 대응하는 것을 말한다. 이 보고서는 각각의 사례를 분석하여 소프트웨어 안전 관리 관점에서의 미비한 부분과 개선 방향을 조명하고, 추가적으로 보완해야 할 부분을 식별한다. 이를 통해 안전관리 프레임워크 차원에서 체계적으로 살펴 우리 정책의 개선 방안을 제시하고자 한다. Executive Summary In the digitally advanced society, software is becoming increasingly central, driving high-value creation across industries. It's particularly influential in accelerating technological advancements in key areas of the Fourth Industrial Revolution, such as mobile computing, quantum computing, the Internet of Things (IoT), autonomous vehicles, big data, artificial intelligence (AI), robotics, and blockchain. The acceleration of digital transformation deepens the complexity and dependence in digital society, posing potential threats while also serving as a foundation for enhanced safety through digital technology. The rise in natural and social disasters, along with frequent safety threats in digital spaces, has made securing digital safety for citizens a primary concern. The expansion of software applications increases potential risks, leading to accidents causing physical, social, and economic damages, necessitating preventive and management measures. Software safety refers to the state where there is sufficient preparation against risks to life or physical harm from accidents caused by software, in the absence of external breaches. This can be divided into two concepts. First, 'Safety of Software' ensures the integrity of software itself, maintaining the safety level to prevent accidents caused by the software. Recent examples include autonomous vehicles and smart factories, where embedded software must guarantee integrity and safeguard against potential risks. Software algorithm malfunctions and abnormal operations can lead to human casualties. Second, 'Safety through Software' focuses on utilizing software safety features to reduce and prevent potential accidents, and ensuring safety in emergency situations. This includes incidents where software errors in safety devices fail to prevent, and instead cause, major accidents. This report examines such cases to analyze shortcomings and directions for improvement in software safety management, identifying areas needing further enhancement. Through this, we aim to systematically examine our policy's improvements within the safety management framework.