본문 바로가기
News/기술-산업-정책

뉴로모픽 기술, 지속 가능한 AI 시대로 나아가다

by R.E.F. 25기 윤영서 2024. 6. 27.

뉴로모픽 기술, 지속 가능한 AI 시대로 나아가다

대학생신재생에너지기자단 21기 한세민, 24기 유현지, 25기 배현지, 윤영서

 

[컴퓨팅, AI 기술의 현황]

[자료 1. 컴퓨터와 에너지 효율성]

출처 : 415 Group

뉴로모픽 컴퓨팅 아키텍처란 생물학적 신경계와 조직원리를 공유하는 인공 시스템을 포함한 컴퓨터 아키텍처를 의미한다. 이는 기존 폰 노이만 컴퓨팅 아키텍처를 사용하는 현대 컴퓨터 기술에 비해 매우 높은 에너지 효율성을 지닌다. 컴퓨터의 에너지 사용 문제는 현대사회에서 중요한 문제 중 하나이며, 지속 가능한 사회로 나아가기 위해서는 꼭 해결돼야 한다. 구체적인 컴퓨터의 에너지사용 문제는 다음과 같다.

높은 전력 소비: 비효율적인 소프트웨어 운영 방식으로 인한 전력 소비가 매우 심하다. 특히 대규모 데이터 센터와 클라우드 서비스는 전력 소비 수준이 매우 높은 편이다. 세미어날러시스의 연구 결과에 따르면 ChatGPT의 일일 전력 소비량은 약 564MWh이다.

냉각수 사용: 과열화된 GPU를 식히기 위해 사용되는 냉각수의 양은 상당하다. GPU는 가동 시 오작동 방지를 위해 적절한 온도 수준을 유지해야 하는데, 이때 냉각을 위해 인공지능 대화 한 번당 약 500ml의 물이 사용된다.

AI의 상용화가 더욱 가속화되고 있는 요즈음, 기존 컴퓨팅 아키텍처만을 이용한다면 추후 발생할 에너지 문제는 굉장히 심각해질 것이다. 그러므로 특히 인공지능 분야에 있어 전력을 더욱 효율적으로 사용할 수 있는 컴퓨팅 아키텍처가 필요하며, 그것의 하나의 대안으로 뉴로모픽 컴퓨팅을 제안할 수 있다.  

 

[폰 노이만 아키텍처]

[자료 2. 폰 노이만 아키텍처 구조]

출처 : LearnLearn

뉴로모픽 컴퓨팅에 대해 알아보기 앞서 기존 현대 컴퓨터에 두루 사용되는 폰 노이만 아키텍처에 대해 알아보자.

먼저 폰 노이만 구조는 크게 입력장치, 출력장치, 메모리, CPU, 버스 다섯 가지로 구성되어 있다. 입력장치는 마우스, 키보드같이 사용자가 컴퓨터에 원하는 정보를 입력할 수 있는 장치, 출력장치는 모니터나 스피커 등 컴퓨터가 사용자에게 정보를 전달할 수 있는 장치이다. 여기서 입력장치를 통해 받은 정보를 바탕으로 고차원적인 계산을 담당하는 장치가 메모리와 CPU이고 이 둘은 버스를 통해 연결되어 있다. 

가벼운 예시를 통해 이들의 작용 원리를 이해해 보자. 사용자가 컴퓨터 계산기 앱에 들어가 “10”, “+”, “20”이라는 버튼을 각각 클릭했다. 이때 “=”를 누른다면 “30”이라는 결괏값을 확인할 수 있다. 메모리에는 “10”과 “20”이라는 숫자의 의미가 무엇인지, “+”라는 연산기호를 어떻게 사용할 수 있는 것인지에 대한 정보가 저장돼 있으며, 이런 정보들은 버스를 통해 CPU로 이동된다. 그 이후 CPU에서는 메모리로부터 받은 정보들을 바탕으로 “10+20”이라는 구체적인 연산을 실행해 “30”이라는 결괏값을 도출한다.

메모리는 크게 Data Memory와 Program Memory로 구분할 수 있다. Data Memory는 흔히 RAM과 흡사한 개념으로, 일시적으로 저장되는 정보이다. 이는 사용자가 임의로 업그레이드할 수 있으며 컴퓨터의 전원이 꺼지면 사라지는 정보이다. 이에 비해 Program Memory는 흔히 ROM이라고 부르며 컴퓨터에 처음부터 내장된 정보이다. 기본적으로 컴퓨터의 입력과 출력을 어떻게 할지, 혹은 컴퓨터의 근본적인 시스템이 어떻게 작동하는지에 대한 정보가 저장돼 있다. 이는 사용자가 임의로 업그레이드할 수 없는 정보이며 컴퓨터의 전원이 꺼지더라도 사라지지 않는다.

여기서 컴퓨터의 효율성이 떨어지는 하나의 원인을 발견할 수 있다. 즉 RAM과 ROM에 각각 저장된 정보의 성격은 다르지만, 이 두 종류의 정보들이 하나의 버스를 통해 CPU와 소통한다. 즉 CPU와 메모리의 상호작용이 오직 하나의 버스를 통해 직렬적으로 작동하며, 이를 ‘내장 메모리 순차처리’라고 부른다. 효율성이 떨어지는 것을 ‘병목현상’으로 이해할 수 있는데, 컴퓨터의 동작이 느려지는 것이다. 컴퓨터의 동작이 느려진다면 동일한 연산을 수행하는 데에 비해 에너지와 시간 효율성이 떨어진다.

이를 통해 뉴로모픽 컴퓨팅 시스템이 높은 전력 효율성을 갖는 원리를 확인할 수 있다. 앞서 언급했듯이 기존 폰 노이만 컴퓨팅 시스템은 구분된 CPU와 메모리를 통해 고차원적인 연산을 수행하며, 이들이 하나의 버스로 연결돼 있다는 것은 병목현상의 원인이 된다. 당장 머릿속으로 “10+20”을 생각해 보자. 큰 노력 없이 “30”이라는 답을 얻을 수 있다. 여기서 우리는 “10”, “20”이 어떤 의미를 갖는지, 또 “+”라는 기호를 어떻게 사용해야 하는지 생각하지 않고도 바로 “10+20”이라는 연산을 수행할 수 있다. 즉 머릿속에서는 메모리와 CPU가 구분돼 있지 않고 모든 정보와 이들의 연산이 “뉴런”이라는 기관을 통해 구성된 복잡한 신경계를 통해 병렬적으로 수행된다. 이 뉴런을 통해 고차원적인 사고를 하는 방식을 “스파이크 신호” 기반 신경망이라고 부른다. 이런 스파이크 신호를 기반으로 인공적인 신경망을 구축하는 기술이 바로 뉴로모픽 기술이다. 뉴로모픽 기술을 통해 더욱 에너지 효율성이 높은 컴퓨팅 아키텍처를 구성함으로 인공지능의 활용이 더욱 가속화되는 현대사회 에너지 문제해결의 가능성을 엿볼 수 있다.

 

[인공지능이란 무엇인가]

뉴로모픽 기술의 궁극적인 목표는 인간의 신경구조와 흡사한 인공신경망을 구축하는 것이다. 이 기술의 완성은 곧 CPU와 같은 Process Unit과 Memory의 구분을 없애고 극도로 효율적인 정보처리를 가능하게 하는 등 컴퓨터의 아키텍처에 근본적인 변화를 불러올 것이다. 그러나 현재에는 기술적인 한계로 인해 이 같은 궁극적인 뉴로모픽 기술의 구현은 불가능하며, 이를 위한 시도 중에 있다. 따라서 현대의 뉴로모픽 기술은 인간 뇌의 완전한 모방을 통한 정보처리를 구현하는 것에 중점을 두기보다는 인간 뇌의 작동 원리를 더욱 비슷하게 구현함으로써 그 효율성을 조금이나마 높이는 데에 중점을 둔다. 또한 위에서 언급한 한계로 인해 그 기술의 구현 범위를 ‘인공지능기술’로 한정하는 편이다. 따라서 현대의 뉴로모픽 기술을 이해하기 위해 인공지능에 대한 기본적인 지식을 갖고 있는 것은 필수적이다.

[자료 3. 인공신경망 모식도 ]

출처 : Towards Data Science

인공지능이란 컴퓨터시스템이 인간의 지능적 작업을 수행하도록 만든 기술이나 논리를 가리킨다. 대개 문제를 해결하거나 목표를 달성하기 위해 컴퓨터시스템이 가지고 있는 데이터와 지식을 활용해 패턴을 인식하고 예측한다. 이 과정에서 다양한 기술과 알고리즘이 사용된다. 현재 컴퓨터 내에서 신경망을 구성하는 방식에는 대표적으로 ANN, CNN, RNN, DNN 등이 존재한다. 이런 여러 종류의 신경망을 ‘딥러닝’ 혹은 ‘기계학습’이라는 방식으로 학습시켜 인공지능기술을 완성하는 것이다. 다시 말해 ANN, CNN 등의 구분은 컴퓨터 내에서 신경망(생명체의 뇌에 해당하는 부분)을 물리적으로 어떻게 구성했는지에 관한 개념이며, 딥러닝과 머신러닝은 이렇게 구성된 신경망을 어떻게 학습시키는지(공부를 하는 방법)에 관한 개념이다. 인공지능기술이란 이 두 범주의 개념을 전부 포괄한다.

 

[STDP와 멤리스터]

본격적으로 뉴로모픽에 사용되는 기술에 대해 알아보자. STDP(Spike Timing Dependent Plasticity)는 신경망에서 학습과 기억을 조절하는 중요한 메커니즘이다. 시냅스 전 뉴런이 스파이크를 전달하면 신경전달물질이 분비돼 시냅스가 활성화되고, 이 신호는 시냅스 후 뉴런으로 전달된다. STDP는 이 과정에서 뉴런 간 연결 강도를 시간 차이에 따라 조절하여, 정보를 장기 기억으로 저장하거나 빠르게 잊게 만든다. 시냅스 전 스파이크가 시냅스 후 스파이크보다 먼저 발생하면 연결이 강화되고, 반대의 경우에는 억제된다.

[자료 4. 스파이크 간격에 따른 시냅스 연결 강도]

출처 : LG 디스플레이

STDP의 이러한 특성은 뉴로모픽 칩 설계에 있어 중요한 요소로 작용한다. 뉴런 간의 시냅스 연결 강도를 시간 차이에 따라 조절해, 칩이 입력 신호의 패턴을 효율적으로 학습하도록 만들기 때문이다. 따라서 자율적인 학습을 통해 에너지 소비를 줄이고, 입력 신호의 시간적 패턴을 기반으로 뉴런 연결을 동적으로 조정하여 학습 효율성을 높인다.

멤리스터는 전압과 전류의 관계를 저장하는 소자로, 전류의 방향과 크기에 따라 저항값이 변하며 전원이 꺼져도 이전 상태를 기억할 수 있다. STDP와 멤리스터의 결합은 뉴로모픽 시스템에서 더욱 큰 시너지를 발휘한다. 멤리스터는 저항값 변화를 통해 시냅스 가중치를 조절하며, 이는 STDP의 학습 규칙과 일치한다​. 따라서 뉴런 간 연결 강도를 시간 차이에 따라 조절하는 메커니즘인 STDP를 하드웨어적으로 구현할 때 멤리스터가 사용된다.

멤리스터 기반의 뉴로모픽 칩은 패턴 인식이미지 처리자율주행 등 다양한 분야에서 활용될 수 있다특히 멤리스터와 STDP의 결합은 기존의 컴퓨팅 아키텍처의 한계를 넘어서는 고성능저전력 솔루션을 제공한다.

 

[시냅스 모방 소자 기술]

[자료 5. 인간의 두뇌 신경]

출처 : SK 하이닉스 

인간의 뇌는 1,000억 개가 넘는 신경세포(뉴런)가 시냅스를 통해 다른 뉴런과 신호를 주고받으며 정보를 처리하고 저장한다. 약 1,000억 개의 뉴런은 100조 개 이상의 시냅스가 병렬적으로 연결돼 약 20W 수준의 저전력으로 기억, 연산, 추론, 학습 등을 동시에 수행할 수 있다. 신호를 전송하는 뉴런에서 신경전달물질이라는 분자가 분비되면 이를 감지해 스파이크 형태의 신호를 시냅스를 통해 다른 뉴런으로 전달하고 이 과정에서 특성 시냅스를 강화하면 다른 시냅스는 약해진다. 이렇게 단기간에 학습한 내용은 잊어버리고 반복 학습한 내용은 장기기억으로 저장돼 기억이 지속되는 등 시냅스 가중치를 변화시키며 데이터를 저장하는 학습이 진행된다.

인공신경망을 구현한 뉴로모픽 기술은 ‘신경 모방 회로 기술’과 ‘시냅스 모방 소자기술’로 나눌 수 있다. 현재 시냅스 모방 소자기술에는 FRAM(Ferroelectric RAM), MRAM(Magnetic RAM), PRAM(Phase-Change RAM), RRAM(Resistive RAM)과 같은 소자가 있으며 저전력 및 고집적 전자 시냅스의 구현이 가능한 소자가 활용되고 있다. 각 소자의 특성에 대해 자세히 알아보자.

①  PRAM(Phase-change memory; 상변화 메모리)

상변화 메모리는 DRAM과 NAND의 장점을 모두 가진 차세대 메모리로 속도도 빠르고 비휘발성이다. 상변화 메모리는 기록층 물질의 결정상(Crystalline state)과 비정질상(Amorphous state)의 결합상태 변화를 통해 0과 1을 저장하는 소자이다. 기록 물질로는 Ge-Sb-Te 등의 칼코겐 화합물이 주로 사용된다. 결정상과 비정질상은 광학적 반사도(광디스크) 및 전기 저항(전기적 메로리)에서 차이가 나기 때문에 이를 이용해 데이터를 구분한다.

[자료 6. 상변화 메모리 구조]

출처 : Semantic Scholar

② RRAM (Resistive Random Access memory ; 저항변화 메모리)

저항변화 메모리는 산화물 지료 내 산소 이온이나, 이온이 빠진 빈 공간을 의미하는 산소 간극(Oxygen vacancy)과 같은 ‘결함’들의 움직임에 의한 저항 변화로 작동하는 소자이다. 저항변화 메모리는 재료에 전압을 인가함으로써 저항을 변경하며 저장되는 소자이다. 인가전압에 의해 재료는 고저항 상태와 저저항 상태 사이를 오고 가는데, 이는 데이터 저장의 1 또는 0에 해당한다. 전압 인가에 따라 국부적으로 만들어지는 물질의 산소 간극 필라멘트는 절연체의 산화물 내 전자가 흐를 수 있는 길을 만들어 저항의 변화가 나타나는 것이다.

[자료 7. 저항변화 메모리 구조]

출처 : Tistory

③ FRAM (Ferroelectric random access memory ; 강유전체 메모리)
강유전체는 강유전성(Ferroelectric)을 가진 재료를 뜻한다. 강유전체 물질은 전기장을 가하면 그 안의 전기 쌍극자가 정렬되는데, 쌍극자 정렬은 전기장이 제거된 후에도 일정 시간 동안 유지될 수 있는 특성이 있다. 전기적 분극을 유지한다는 것은 극성을 바꿔 데이터를 저장하는 기본 구조인 0과 1을 만들 수 있다는 의미이다.

[자료 8. 강유전체 메모리 구조]

출처 : Blocks&Files

④ MRAM (Magnetic memory ; 자성 메모리)

자성 메모리는 N극과 S극으로 구분된 자석의 특성을 적절히 이용한 메모리이다. 자성 메모리는 기본적으로 자기 터널 접합(MTJ, Magnetic Tunnel Junction)의 원리를 이용한다. 절연체로 구분된 2개의 자석이 서로 평행한 방향으로 정렬되면 저항값이 작고, 방향이 반대로 정렬되면 저항이 높아져 이를 이용해 0과 1을 구분한다. 자성 메모리는 동작 원리에 따라 저항값이 두 가지로만 구분되기 때문에 0과 1을 나타내는 저항값이 너무 작아 메모리를 통해 흐르는 전류가 높아 저전력 설계에 적합하지 않다는 한계가 있었지만 최근 전력소모를 기존의 방식보다 1/10 수준으로 감소시킨 소자를 개발하는 등 활발한 연구가 진행 중이다.

[자료 9. 자성 메모리 구조]

출처 : SK하이닉스

 

[NPU-Neural Processing Unit]

[자료 10. Npu 아키텍처]

출처 : Qnap

NPU란 Neural (Network) Processing Unit의 약자로, ‘신경망 처리 장치’를 의미한다. 인간 뇌의 신경망을 모방해 NPU라는 이름을 얻게 됐는데, 인간 뇌가 수많은 신경세포가 서로 연결돼 신호를 주고받으며 작동하는 것과 같은 원리로 수천 개의 연산을 동시에 할 수 있는 AI 반도체인 것이다. 특히 딥러닝 알고리즘 연산에 최적화된 프로세서로 뇌와 같이 정보를 스스로 학습, 처리할 수 있어 AI 칩이라고도 부른다.

NPU는 클라우드(가상서버)나 인터넷 연결 없이도 실시간으로 빠르게 데이터를 처리하고, 사람처럼 생각하고 학습할 수 있어 딥러닝에 최적화된 기술로 평가받는다. 알고리즘 연산에서의 모든 정보와 연산 과정을 뉴런을 통해 동시적으로, 즉 병렬 처리가 가능한 것이다. 대량 연산을 동시에 수행하는 데 특화된 이러한 특징은 그래픽 처리 장치인 GPU와 비슷한 기능을 한다. 하지만 NPU는 딥러닝을 포괄하는 개념인 머신러닝 전용으로 설계된 chip이기 때문에 각각의 AI 연산처리에 최적화돼 있지 않은 GPU보다 효율적이고, 전력소모가 적다는 장점이 있다. 따라서 대용량 데이터를 병렬 처리하고, 적은 전력으로 복잡한 연산, 추론, 학습 등이 가능한 NPU 기반 AI 반도체는 차세대 AI의 핵심 역할을 하게 되었고, 여러 차세대 기술 적용에 적합해 스마트폰, 노트북, 가전 기기 등 ‘온 디바이스 AI’ 구현에 핵심이 되고 있다.

또한, 시냅스 모방소자를 이용한 DNN 구현에 사용하는 하드웨어로 NPU를 사용할 수 있다. 폰 노이만 병목현상의 수행 한계를 극복하려는 DNN의 뉴로모픽 딥러닝 기술에서 NPU는 신경망의 효율적인 연산 최적화를 추구하는 고성능 뉴로모픽 하드웨어의 종류의 인공지능 가속기로서 대규모 병렬 처리를 위한 메모리와 연산 유닛의 유기적인 연합을 적용하는 데에 역할을 한다. 뉴로모픽 아키텍처가 폰 노이만 아키텍처에 비해 복잡한 신경 네트워크 계산을 빠르고, 더 적은 전력으로 수행 가능하게 하는 것이다.

반면에 머신러닝 전용 설계 칩이라는 점에서 NPU는 CPU나 GPU처럼 다양한 용도로 사용할 수 없다는 단점이 있다. 특히 뉴로모픽 기술의 선두 주자가 되는 기술 중 앞서 언급한 대로 DNN 기술에서는 NPU를 통한 구현이 가능하지만, SNN 기술의 경우 NPU를 사용하는 데 어려운 부분이 있어 CPU나 GPU를 활용한다. 뉴런의 시간적인 측면을 고려하는 SNN은 신경망의 시간적인 동작 측면에서 직접적으로 처리하는 데 어려움이 있는 NPU를 사용하는 데 한계가 있는 것이다. 또한, 이벤트를 기반으로 정보를 처리하고, 학습 도중 가중치 업데이트가 가능한 SNN은 연속적으로 정보를 처리하는 DNN과는 차이가 있고, 동작 구조가 정적인 편의 NPU와 일치하지 않는 부분이 존재한다.

NPU는 인간의 뇌 구조를 모방하는 것이기에 기술개발은 계속해서 진행 중에 있다. 다른 장치에 비해 전력소모가 적지만, 고급 연산 자체로 소비하는 전력량이 많기 때문에 배터리 사용기간에 영향을 줄 수밖에 없어 기능이 한정적인 점은 여전히 해결해 나가야 할 숙제이다. 그럼에도 유망한 NPU 시장의 가능성을 알아본 반도체 업계에서는 NPU 개발 열풍이 불고 있다. 맞춤형 NPU를 직접 개발하는 것이 온 디바이스 AI 제품의 제대로 된 구동을 가능하게 하기 때문이다.

가장 쉽게 볼 수 있는 NPU는 스마트폰 기술에서 카메라 기능을 보조하는 기능이다. NPU가 안면 인식 보안, AI 카메라, AI 이미지 처리(보정, 화질 업그레이드 등), 외국어 자동 번역 등을 담당하고 있고, 최근 삼성에서는 NPU 성능이 13배 향상된 모델인 갤럭시S24를 출시했다. 더불어 통합칩셋 설계팀에 NPU 개발 역량 강화를 위한 엔지니어 2,000여 명을 충원했다. 삼성전자를 비롯한 퀄컴, 인텔 등의 반도체 회사는 물론이고 구글, 애플, 아마존 등의 거대 테크 기업, 그리고 LG전자에서도 NPU 개발에 동참했다.

 

[뉴로모픽의 딥러닝 기법]

딥러닝 신경망 중 하나인 DNN(Deep Neural Network)은 입력층, 은닉층, 출력층으로 구성된 인공 뉴런들이 복잡한 데이터를 처리하고 패턴을 학습한다. 입력층의 인공 뉴런은 받은 데이터가 학습한 내용에 가까운 값일수록 신호의 크기를 키운다. 이때 신호의 크기가 특정 값을 넘어가면 이를 여러 개로 이뤄진 은닉층의 인공 뉴런에 전달한다. 이 과정을 반복해 데이터가 출력층까지 도달하게 된다. 따라서 DNN은 대규모 데이터셋을 처리하고 높은 정확도를 보장하는 데 강점을 가지고 있다.

[자료 11. DNN 모식도]

출처 : Research Gate

이러한 과정이 뉴로모픽에 적용되면 DNN은 먼저 입력 데이터를 입력층에서 받아들인다. 이 과정에서 STDP 메커니즘에 따라 신경망이 실시간으로 학습하고, 시냅스 강도를 시간에 따라 조정해 데이터 패턴을 인지한다. 멤리스터 소자는 가중치 값을 저장하고 전압에 따라 가중치를 조정해 전통적인 방식보다 훨씬 효율적인 에너지 사용을 가능하게 한다.

DNN의 뉴로모픽 딥러닝 기술은 학습 과정을 최적화하며, 빠르고 정확한 데이터 처리를 가능케 한다. 결과적으로 신경망은 더 높은 학습 효율성과 실시간 반응 능력을 갖추며 의료 진단, 자율 주행차, IoT 기기 등 다양한 분야에 응용 가능성이 있다.

 

[지속 가능한 AI로 나아가는 길]

[자료 12. 지속 가능한 AI 기술]

출처 : KnowESG

비록 현재 주된 뉴로모픽 기술개발은 완전한 뉴로모픽 컴퓨팅 아키텍처와는 거리가 있지만, 후자의 실현이 아예 불가능한 것은 아니다. 완전한 뉴로모픽을 구현할 수 있는 칩과 회로를 뉴로모픽 칩(Neuromorphic chip)과 뉴로모픽 회로(neuromorphiccircuit)라고 한다. 아직 GPU, SSD, RAM과 같은 추가적인 연산장치와 저장매체가 필요하지만 기존 컴퓨팅 기술에 비해 뉴런과 매우 유사한 처리방식과 구조를 갖는다. 이런 뉴로모픽 칩은 기존 폰 노이만 구조와 달리 저장매체와 완전히 분리되지 않고 신경망을 물리적으로 모사한 뉴로모픽 회로를 통해 연결돼 있기 때문에 병렬 연산이나 학습에 있어 원래의 컴퓨팅 기술에 비해 수백 배의 이득을 볼 수 있다. 실제로 IBM, 인텔 등 반도체기업과 MIT, Stanford 등 세계 유명 대학에서 이들의 상용화를 위해 활발한 연구를 진행하고 있다.

최근 엄청난 주가 상승을 보이는 '엔비디아' 또한 AI 반도체 개발 기업이다. 그러나 동시에 심각한 전력 사용 문제가 화두에 오르고 있다. 미국 MS 데이터센터는 엔비디아가 2024년 말까지 연간 1만 GWh 이상의 전력을 소비할 것으로 예상했다. 이는 일부 국가의 연간 전력 소비량과 맞먹는 수준이다. 더욱 심각한 점은, 전력 소비량이 훨씬 많은 AI 반도체가 개발될 가능성이 매우 크다는 점이다. 이런 측면에서 전력 소비의 효율성을 극대화할 수 있는 뉴로모픽 기술의 개발은 지속 가능한 AI 사회로 나아가기 위한 불가결한 요소이다. 

인공지능은 이미 사회의 다양한 위치에서 인간의 활동을 대체하고 있으며 앞으로 그 규모는 더욱 커질 것이다. 이로 인한 일자리나 교육 문제 등 사회적인 걱정거리도 다양하다. 인간을 집어삼키는 AI, 사회를 집어삼키는 AI. 그러나 방심한다면 곧 지구를 집어삼키는 AI가 되는 것은 시간 문제이다.  


데이터와 인공지능에 대한 대학생신재생에너지기자단 기사 더 알아보기

1. "데이터센터, ESG의 핵심 '키'가 되다", 23기 차승연, 데이터센터, ESG의 핵심 '키'가 되다 (renewableenergyfollowers.org)

 

데이터센터, ESG의 핵심 '키'가 되다

데이터센터, ESG의 핵심 '키'가 되다 대학생신재생에너지기자단 23기 차승연 정보화 시대의 도래에 따라 인터넷 서비스의 수요가 급격히 증가하고 있다. 이에 맞춰 세계 각국의 IT 기업들은 방대

renewableenergyfollowers.org

 

2. "ChatGPT, 편리함 뒤에 숨겨진 환경 그림자", 23기 강민수, 고가현, 24기 이우진, 25기 배현지, 이예영, ChatGPT, 편리함 뒤에 숨겨진 환경 그림자 (renewableenergyfollowers.org)

 

ChatGPT, 편리함 뒤에 숨겨진 환경 그림자

ChatGPT, 편리함 뒤에 숨겨진 환경 그림자 대학생신재생에너지기자단 23기 강민수, 고가현, 24기 이우진, 25기 배현지, 이예영 [너의 능력은, ChatGPT가 대량의 에너지를 소비하는 이유] 2022년, Open AI에

renewableenergyfollowers.org


참고문헌

[STDP와 멤리스터]

1) 문승언, “초박막 구조 기반 고성능 멤리스터 소자를 이용한 뉴로모픽 하드웨어 개발”, 한국전자통신연구원, 2019-06-01, https://scienceon.kisti.re.kr/srch/selectPORSrchReport.do?cn=TRKO201900001693#

2) 정다윤, LG디스플레이 디플, “뇌처럼 생각하는 인공지능 하드웨어, 뉴로모픽 반도체!”, 2021.01.04, https://post.naver.com/viewer/postView.naver?volumeNo=30387060&memberNo=10728965

3) Gautam Ashish , Kohno Takashi , “Adaptive STDP-based on-chip spike pattern detection”, Frontiers in Neuroscience, 17, 2023, https://www.frontiersin.org/journals/neuroscience/articles/10.3389/fnins.2023.1203956/full

4) Valerio Milo, Gerardo Malavena, Gerardo Malavena, Daniele Ielmini, “Memristive and CMOS Devices for Neuromorphic Computing”, Materials, 13, 166, 2020, https://www.mdpi.com/1996-1944/13/1/166

[시냅스 모방 소자 기술]

1) 김도형, “차세대 메모리 반도체: 상변화 메모리(PRAM)”, KOSEN, 2009.08.25., https://kosen.kr/webstory/photo/1082

2) 김향자, “PRAM 등 ‘3세대 AI반도체’가 떠오른다”, 애플경제, 2023.05.16, https://www.apple-economy.com/news/articleView.html?idxno=71419

3) 이명재, “지능형반도체 구현을 위한 뉴로모픽 멤리스터 소자 기술”, 정보조달우수제품협회, https://test.narangdesign.com/mail/jungwoo/202302/a1.html

4) 이수환, “상용화에 다시 주목받는 강유전체 메모리(FRAM)”, SKhynixNEWSROOM, 2016.05.31, https://news.skhynix.co.kr/post/ferroelectric-memory-fram

5) 최리노, “폰노이만을 넘어서라, 차세대 컴퓨팅과 미래 반도체 연구”, 2023.10.19, SKhynixNEWSROOM, https://news.skhynix.co.kr/post/rino-choi-column-6

6) 한국연구재단, “뉴로모픽 기술 관련 현황 및 향후 전망”, 2016.03, https://webzine.nrf.re.kr/nrf_1603/?chapter=1&sub=3

[ NPU-Neural Processing Unit ]

1) 김채연, 황정수, “"AI 시대, 인간 뇌 닮은 NPU가 대세"…구글·애플 이어 LG도 참전”, 한경, 2024.01.25, https://www.hankyung.com/article/2024010553271

2) 매일경제, “NPU”, 네이버 지식백과, 2024.06.15, https://terms.naver.com/entry.naver?docId=6729588&cid=43659&categoryId=43659

3) 신승진, “CPU•GPU•NPU•TPU 차이”, 테크튜브, 2023.08.06, https://www.techtube.co.kr/news/articleView.html?idxno=3644

4) 전윤미, “생성AI시대의 ‘뇌(腦)’ NPU, 국내 기술 ‘현주소’”, 애플경제, 2024.02.07, https://www.apple-economy.com/news/articleView.html?idxno=72722

5) 정한영, “NPU란 무엇이고, 왜 온디바이스 생성 AI를 실현하는 데 핵심적인 역할을 하나?”, 인공지능신문, 2024.02.02, https://www.aitimes.kr/news/articleView.html?idxno=30227

6) Pmg 지식엔진연구소, “신경망 처리 장치”, 네이버 지식백과, 2019.08.29, https://terms.naver.com/entry.naver?docId=5827307&cid=43667&categoryId=43667

 

댓글