#AI

옹이옹이· 5개월

10초만에 완성되는 readme 작성 서비스, Readme Generator를 이용해보세요 ‼️

안녕하세요, 저는 개발과 데이터분석을 공부하고 있는 학생입니다! Github에 프로젝트를 올릴 때 readme.md를 작성하곤 하는데요, 저의 경우에는 프로젝트를 진행할 때마다 리드미 작성이 번거로워 대충 짧게 적거나 아예 빈칸으로 비워두는 경우도 허다했습니다🙂‍↔️ 저만 그런거 아니죠? ㅎㅎ 그래서 readme를 발표자료나 코드에 맞게 내용을 알아서 잘 센스있게 작성해주는 서비스가 있으면 좋겠다 싶어 직접 만들어보았습니다! 제목과 코드나 PDF 파일을 첨부하면 readme 파일을 자동으로 생성해주는 방식입니다. 아직은 초기 단계라 직접 사용해보신 분들의 피드백이 절실합니다! 저희 서비스를 한번 사용해보시고 불편하거나 개선할 점이 있다면 공유해주시면 감사하겠습니다 ☺️🙇‍♀️ *참고로, 입력된 코드는 저장되지 않지만, GPT API를 활용하기 때문에 기밀 문서나 코드는 입력하지 않도록 주의해주세요! 링크: web-production-073a6.up.railway.app
176
1
0
촌장촌장· 8개월

피규어 02 분석 : 테슬라를 뛰어넘을 수 있을까?

수요일의 테크엔돌핀, 수요 레터 구독하기 👉      피규어(Figure) 사의 2세대 AI 휴머노이드 로봇 피규어 02 (Figure 02)를 선보였다. (출처)   오랜만에 로봇 소식 전해 드립니다. 지난 8월 6일에 피규어(Figure)사에서 2세대 AI 휴머노이드 로봇인 피규어 02 (Figure 02)의 영상을 공개했습니다. 지난 3월에 오픈AI와 협업한 피규어 01을 선보여서 센세이션을 일으킨 바 있었구요. 저도 깜짝 놀라서 관련된 영상을 올리기도 했습니다. 로봇이 인간과 직접 소통할 수 있는 모습을 보이면서 이제야 로봇의 혁신이 제대로 시작되겠구나 싶었죠. 바로 그 피규어가 이번에 2세대 로봇을 공개한 거라 세간의 관심이 집중되었습니다.     외모   일단 외모가 많이 이뻐졌습니다. 1세대는 뭐랄까, 번쩍번쩍 알루미늄 샤시가 그대로 보이고, 케이블이 외부로 노출된 프로토타입 상태로 보였다고 하면, 이번에 2세대는 겉모습으로 봤을 때는 거의 양산형에 가깝게 정돈되었습니다. 무광택 검은 크롬으로 외모를 다듬었는데 보기에도 아주 멋집니다. 케이블도 다 안으로 넣어서 깔끔해 졌고, 등에 메고 있었던 배터리팩도 안으로 넣어서 한결 가벼워지고 날렵해진 모습입니다. 개인적으로는 테슬라의 옵티머스 2세대의 블랙 & 화이트가 좀 더 깔끔한 느낌이 들기는 합니다만, 피규어02의 외모도 상당 수준 완성되었습니다.  피규어 01의 외모는 프로토타입에 가깝다. 스타워즈의 C-3PO랑 어딘지 많이 닮았다.  (출처)  피규어 02 는 1세대 제품에 비해 훨씬 양산 모델에 가까워졌다. (출처)     성능   피규어 02는 외모 뿐 아니라 여러 기능들이 업데이트 되었습니다. 배터리가 내부로 들어갔음에도 불구하고 2.25 kWh 로 기존보다 50%나 개선되었다고 합니다. 중요한 업그레이드죠. 하지만 단순히 배터리 용량만 증가되었을 뿐 실제로 구동되는 시간 등에 대해서는 전혀 언급은 없습니다. 토크도 높아져서 최대 20kg 의 물건을 운반할 수 있다고 하네요. 전기 모터를 사용하는 로봇임에도 꽤 높은 힘을 낼 수 있다는 점을 피규어사는 강조하는 듯 합니다. 사실 유사한 형태의 로봇인 테슬라의 옵티머스 2세대의 경우는 계란을 집을 수 있는 정교함에 포커스를 주었지 얼마나 무거운 무게를 다룰 수 있는지는 얘기하지 않았거든요. 피규어 02도 정교함을 개선했습니다. 16개의 관절 모터를 장착하여 거의 인간과 유사한 자유로운 작업이 가능하도록 설계되었다고 합니다. 데모 영상에서 보면 정말로 손놀림이 아주 정교해진 것으로 볼 수 있습니다. 하지만 정교해진 동작을 증명할 수 있는 어떤 실행 모습을 보여줬으면 더 좋지 않았을까요? 옵티머스는 계란을 집었으니, 두부를 집는 모습을 보이면 진짜 인정해 줬을 텐데요. AI 성능이 빠질 수 없겠죠? 온디바이스 AI 칩셋의 성능을 개선해서 기존 1세대보다 3배 더 빨라진 연산 및 AI 추론이 가능하다고 얘기합니다. 현장에서 사람들과 함께 일하기 위해서는 음성과 시각 정보를 이용한 빠른 학습이 필수적인데, 6개의 RGB 카메라를 장착하여 빠른 시각적 추론이 가능한 VLM (Vision Language Model)을 내장했다고 밝히고 있습니다. 많은 업그레이도가 되었다고는 하지만 걸음걸이는 글쎄... 기대에 미치진 못한다 (출처)     비교 그리고 의견들   다른 로봇들하고 비교하지 않을 수 없겠죠? 움직임의 속도를 한번 살펴볼까요? 속도는 보스톤 다이내믹스의 올 뉴 아틀라스의 압도적 승입니다. 그리고 동작의 유연성 측면에서도 우위를 보이고 있죠. 이번에 선보인 피규어 02는 몇 달 전에 소개된 테슬라의 옵티머스 2세대 보다도 느려 보입니다. 옵티머스는 춤이라도 췄는데, 피규어 02는 겨우 느릿느릿 걸을 수 있을 정도네요. 손동작의 경우는 이번 소개 영상에서도 꽤나 부드러운 모습을 보입니다. 하지만 실제 물건을 집고 옮기는 건 자동차 프레임처럼 크고 무거운 물건이라서 섬세함을 보여주기엔 한계가 있어 보입니다. 사실 피규어가 세간의 관심을 많이 받았던 이유는 오픈AI와의 협업을 통해 인간과 소통하는 로봇의 미래를 보여줬다는 점에 있습니다. 이번 피규어 02 영상에서도 AI 에 관련된 설명이 있기는 하지만 실제로 얼마나 효과적으로 AI를 적용해서 현장의 복잡한 상황들을 대처할 수 있는지는 보여주지 못한 점은 제일 아쉬운 부분입니다.  다만 Self-correcting Learned Behavior 라는 문구를 통해 예상치 못한 작업 상의 변화를 스스로 감지해서 교정해 나가는 학습능력이 있다는 점을 얘기하고 있기는 해요. 커뮤니티를 중심으로 이번 피규어 02의 발표가 기대에 미치지 못했다는 평가가 많네요. 걸음이 너무 느리다, AI와 접목된 기능을 전혀 선보이지 못했다 등 부정적인 의견들이 다수입니다.  피규어, 좀 더 분발해야 겠습니다.  보스턴다이내믹스의 '올 뉴 아틀라스' 움직임만큼은 탁월하다. (출처)     전망   테슬라의 옵티스머스의 경우 내년에는 실제 테슬라 양산 라인에 투입하겠다는 계획을 잡고 있습니다. 현대자동차그룹의 보스턴다이내믹스의 올 뉴 아틀라스도 내년 초나 중순 경에 베타 버젼을 선보이면서 기존보다 많이 개선된 모습을 보일 것으로 예상합니다. 피규어 02도 현재 BMW 생산 라인에서 시범 운영하면서 성능을 검증하고 있는 중이라 밝히고 있습니다. AI 기술과 산업에 대한 냉정한 평가가 필요하다는 의견이 나오는 가운데, AI를 활용하여 실제적인 비즈니스 성공을 만들어낼 수 있느냐가 더욱 중요해 졌습니다. 많은 분야 중에서 로봇 산업이야 말로 AI 기술을 접목해서 폭발적인 성장이 기대되는 분야 중 하나가 아닐까 합니다. 피규어 02는 BMW 자동자 라인에서 테스트 중이다. 앞으로 공장의 단순하고 위험한 일은 로봇이 도맡게 될 것이다. (출처)     소프트웨어와는 다르게 하드웨어에 기반한 기술 혁신은 상대적으로 느릴 수 밖에 없습니다. 하지만 그 혁신의 흐름은 아주 견고하고 단답합니다. 아주 많은 부분에서 확실한 변화가 일어날 것입니다. 머지 않았습니다. 로봇 기술과 혁신을 주의깊게 지켜봐야할 이유입니다.      촌장 드림         🤖 한 주의 중요 AI / 테크 뉴스     업스테이지-NIA의 새로운 한국어 리더보드 평가 시즌2 시작 업스테이지와 한국지능정보사회진흥원(NIA)은 한국어 대형언어모델(LLM) 성능을 평가하는 리더보드의 시즌 2를 개시했습니다. 이번 시즌에서는 9개의 새로운 평가지표가 도입되었으며, 기존의 평가 기준을 전면 개편했습니다. 이 개편으로 인해 모델의 실제 성능을 보다 정확하게 평가할 수 있을 것으로 기대됩니다. (기사보기)    인텔이 예전같지 않다 인텔이 반도체 시장에서 주도권을 잃고 있습니다. 인텔은 2007년 아이폰의 등장 시기에 모바일 칩 시장 진입을 거부해 큰 기회를 놓쳤습니다. 이후 경쟁사들이 시장을 장악하며 인텔은 어려움을 겪었고, 2020년대 들어서는 AI 칩 시장에서 엔비디아, TSMC, 삼성전자 등에 밀려났습니다. 현재 인텔은 IDM 2.0 전략으로 반등을 시도 중이지만, 그 성공 여부는 미국 정부의 반도체 정책에 크게 의존하고 있습니다. (기사보기)    샘 알트먼, GPT-5 출시 임박 티징 오픈AI의 샘 알트먼은 새로운 AI 모델 ‘스트로베리’를 암시하는 사진을 공개하면서, GPT-5의 출시가 임박했다는 추측이 제기되고 있습니다. ‘스트로베리’는 GPT-5에 통합될 가능성이 높은 모델로, 인간 수준의 추론 능력을 지닌 것으로 알려져 있습니다. 또한 오픈AI의 익명 챗봇이 챗봇 아레나에 등장하면서 GPT-5 출시가 가까워졌다는 신호가 더욱 확실해지고 있습니다. (기사보기)    오픈AI, GPT-4o 위험 수준 평가 발표 오픈AI는 GPT-4o 모델의 안전성 평가 보고서를 발표하며, 위험 수준을 ‘중간’으로 평가했습니다. 이번 보고서는 오디오 기능에 대한 안전 작업을 강조하며, 허가되지 않은 음성 생성이나 저작권 침해와 같은 위험 요소들을 다루고 있습니다. 감정적으로 AI와 교감될 수 있는 위험성이 다소 높게 나온 점이 두드러집니다. (기사보기)    애플, 자체 AI 서비스에 20불 유료화할까? 애플이 일부 AI 기능을 월 20달러에 유료화할 가능성이 제기되었습니다. ‘애플 인텔리전스’의 고급 기능을 구독 서비스 ‘애플 원’에 포함시킬 계획이며, 이를 통해 추가 수익을 창출하려는 전략이 검토되고 있습니다. 이러한 AI 기능은 온디바이스 AI와 시리 통합 서비스를 포함할 것으로 예상됩니다. (기사보기)      수요일의 테크엔돌핀, 수요 레터 구독하기 👉    
201
0
촌장촌장· 8개월

우리가 알던 SaaS는 잊어라!

매주 수요일, 안철준 촌장의 <수요레터>입니다 👀 매주 수요일, 안철준 촌장의 <수요레터> 발행됩니다 👀 웹에서 보기 📌 수요 레터 구독하기        우리가 알던 SaaS는 잊어라!       SaaS? SaaS!   기업의 자동화에 대한 최종 목표는 효율성의 극대화 입니다. 이러한 목적에 맞도록 소프트웨어는 발전되어 왔고, 장치에 설치된 형태의 고정형 소프트웨어의 여러 문제점들을 극복하기 위해 사용량과 접근성에 근거한 유연한 소프트웨어 공급 서비스가 각광을 받게 되었습니다. 이것이 바로 SaaS (Software as a Service), 서비스 형태의 소프트웨어 라고 불리는 비즈니스 모델입니다. 하지만 최근 AI 기술 혁신을 통해 새로운 서비스 모델의 가능성이 대두가 되고 있는데요. 바로 새로운 SaaS 입니다. 여기서 SaaS는 Service as a Software 입니다. 소프트웨어 형태의 서비스라고 부를 수 있을 겁니다. Service와 Software의 순서를 단지 바꿨을 뿐이지만, SaaS (Software as a Service) 에서 SaaS (Service as a Software) 으로의 패러다임 전환은 사실 어마어마한 변화를 의미합니다. Foundation Capital 그룹에서 관련된 아티클을 출간했고, 내용을 정리해 봤습니다.     Service as a Software 는 무엇인가?   기존 SaaS (Software as a Service) 소프트웨어 비즈니스 모델은 공급하는 플랫폼 또는 자사의 도구에 접속할 수 있고 사용할 수 있는 권한을 판매하는 서비스입니다. 사용권에 대한 서비스를 제공하지만, 그 서비스를 이용하여 만들어 낸 결과물은 고객의 책임입니다. 반면 새로운 SaaS (Service as a Software)의 비즈니스 모델은 서비스 결과의 책임을 공급업체가 지게 된다는 근본적인 차이가 있습니다. 사실 이러한 서비스는 기존의 레거시 사업이 광범위하게 담당해 왔습니다. 회계, 법률, 인사, 영업, 마케팅 등의 부분들을 전문적으로 서비스하는 수많은 아웃소싱 기업들이 있습니다. 그런데 앞으로 이 부분에 AI가 적용되면 제공되는 서비스의 규모와 퀄리티가 완전히 바뀌게 됩니다. 소프트웨어에서 서비스로의 패러다임 전환의 의미는 실로 엄청납니다.     SaaS 의 새로운 기회   10년 전에는 SaaS 또는 소프트웨어 유니콘이 15개에 불과했습니다. 그런데 이 숫자는 현재 416개가 되었습니다.  기업 소프트웨어 회사의 총 공개 시가 총액은 1조 달러를 초과 했구요. 가히 SaaS의 시대라고 불릴만 합니다. 디지털 전환, 클라우드 전환과 같은 소프트웨어 기반의 IT 혁신이 SaaS 시대를 이끄는 가장 중요한 요인이 되었습니다. 하지만 앞으로의 10년은 소프트웨어에서 서비스로의 전환이 이루어질 것이고, 여기에는 AI의 혁신이 기반이 될 것입니다. LLM 기반의 AI 에이전트는 숙련된 전문가가 업무를 수행하는 것과 같은 복잡한 업무를 수행할 수 있음을 이미 증명하고 있습니다. 단순히 워크플로우를 효율적으로 개선하는 데 그치지 않고 근본적인 업무 실행 방식을 AI 가 바꾸는 것을 의미합니다. 소프트웨어에서 서비스로서의 전환은 시장 사이즈를 완전히 새로 정의하게 만듭니다. 예를 들면 가장 성공적인 SaaS 기업 중 하나인 Salesforce의 연간 매출은 350억 달러입니다. 이런 매출의 규모도 상당하지만, 소프트웨어에서 서비스로의 패러다임 전환이 이루어지면 Salesforce 가 제공하는 소프트웨어 공급 부분을 영업 및 마케팅 서비스 영역 전체로 환원될 수 있음을 얘기합니다. 이는 글로벌 규모로 1조 1,000억 달러에 이르는 시장입니다. 마켓 사이즈가 완전히 달라지는 것입니다. Salesforce의 연매출 $35B은 대단한 스코어이지만, Service as a Software 측면에서 바라보면 마켓 사이즈는 $1,100B에 이르게 되고, 엄청난 영업 기회가 생겨나는 것이다. (출처 : Foundation Capital )      4조 6천억 달러의 시장   4조 6천억 달러는 이러한 산업 전반에 걸친 규모를 대변하는 숫자입니다. 위 그래프의 모든 마켓 사이즈를 모두 더하면 전세계 일자리에 대한 급여가 되고 금액으로는 2조 3천억 달러로 추산할 수 있습니다. 여기에는 영업 및 마케팅, 소프트웨어 엔지니어링, 보안, 그리고 HR 이라는 대표적인 직군을 포함합니다. 그리고 관련된 업무와 직군을 아웃소싱 서비스 형태로 제공하는 비즈니스가 있습니다. 관련된 부문에 사용된 금액을 2조 3천억 달러로 추산합니다. 이 두 가지의 숫자를 합쳐 4조 6천억 달러가 나오게 됩니다. 한화로 환원하면 5,888조 원에 이르는 금액입니다.     비용 정산 기준이 완전히 달라진다.   소프트웨어 공급 방식에서 서비스 공급 방식으로의 전환이 이루어지면 해당 서비스의 정산 기준이 완전히 달라지게 됩니다. 기존 소프트웨어 공급 방식은 사용 단위로 비용을 책정하게 합니다. 반면 서비스 공급형 소프트웨어의 비용은 관련된 비즈니스 서비스 가치 자체에 맞춰 정산이 됩니다. 소프트웨어 사용량이 아니라 실제적으로 그 서비스 자체의 결과로 가치를 평가받게 되는 것이죠. 서비스로서의 소프트웨어 공급 형태는 사용을 제한할 아무런 이유와 동기가 없고, 실제적인 고객에 대한 서비스 만족과 가치에 맞춰 매출을 만들어 내게 됩니다. 예를 들면 영업 마케팅 분야에서 AI를 이용한 Service as s Software 가 이루어지게 되면, 해당 플랫폼을 사용하는 라이선스나 사용 범위에 따라 요금을 청구하는 것이 아니라, 실제로 이루어진 가망고객의 숫자나 계약 건수에 비례해서 요금을 정산하는 방식이 될 것입니다. 서비스 공급 업체의 성공과 고객의 실제적인 성장이 본질적으로 싱크가 맞춰지는 비즈니스 모델이 비로소 가능해지는 겁니다.     AI가 인력을 대체한다.   영업 및 마케팅 분야의 담당자의 업무는 이메일 작업, 스케줄 조정, 영업 관련 후속 조치, 고객과의 식사 및 미팅 등이 있겠죠. 이 중에서 고객과의 식사를 제외하고는 모두 AI가 담당할 수 있는 일입니다. 특히나 아웃바운드 영업의 경우 AI를 활용한 서비스의 효과가 매우 높을 것으로 기대됩니다.  소프트웨어와 엔지니어링 측면에서 보면 개발 목표를 정하면 AI가 자동으로 코드를 생성하고 디버깅까지 처리할 수 있습니다. 사이버 보안도 상시적인 인력 부족을 호소하는 영역이죠. 보안 프로세스가 더욱 복잡해지고 위협의 형태가 광범위하게 빨라지는 상황에서 AI를 이용한 보안 자동화는 공격을 보다 효과적으로 대처할 수 있게 됩니다. 보안 정책과 분석 역시 고도로 훈련된 담당자가 필요했으나 이 부분도 AI에 의해서 대체될 수 있을 겁니다. 결국 AI로 무장된 서비스 자동화는 수많은 일자릴 대체하게 될 것은 분명한 사실입니다.     우리가 아는 SaaS 는 끝났는가?   꼭 그렇지는 않다고 보고서는 마무리하고 있습니다. 실제 역사적으로 봤을 때도 파괴적 기술의 혁신은 기존의 방식과 오랫동안 시장을 양분해 왔습니다. 일부 고객들은 관련된 서비스 영역을 아웃소싱하겠지만, 여전히 또 많은 부분은 자체 리소스로 운영하는 것으로 유지할 겁니다. 이찌되었던 사업의 모든 부분의 최종 결정과 검토는 인간의 참여가 여전히 필수적입니다. 그래서 인간의 업무에 상호 보완적 차원의 AI 기반 서비스가 가장 현실적인 대응 방인 될 것으로 보는 전망이 많습니다. 그럼에도 불구하고 AI 가 만들게 될 새로운 SaaS, 서비스로서의 소프트웨어는 이전의 어떤 기술 혁신으로도 도달하지 못했던 엄청난 파괴적 영향을 기업과 사회에게 끼칠 것입니다. 따라서 비지니스의 존재와 가치에 대해 새롭게 숙고하고, 과연 인간은 이 연결고리에서 어떤 역할을 수행해야 하는지에 대한 아주 근본적인 질문이 필요할 때입니다. 4조 6천억 달러의 시장은 이렇게 아주 중대한 고비를 맞이하고 있습니다.       촌장 드림     🤖 놓치면 안되는 중요한 AI 테크 뉴스     탄소 중립 목표에서 더 멀어지는 테크 기업들 구글과 마이크로소프트 등의 대형 기술 기업들이 AI 경쟁으로 인해 탄소 배출량이 급증하고 있습니다. 이로 인해 이들 기업의 2030년 탄소 중립 목표 달성이 어려워지고 있습니다. 데이터센터와 재생에너지 투자가 증가하고 있지만, 탄소 배출량을 줄이는 데에는 한계가 있어 보입니다. (기사보기)    메타, 오픈소스 AI 모델 라마 3.1 발표 메타가 새로운 오픈 소스 AI 모델인 라마 3.1을 발표했습니다. 이 모델은 4050억 개의 매개변수를 가지고 있어 오픈형 모델 중 가장 큰 규모이며, 오픈AI의 GPT-4o와 비슷한 성능을 보입니다. 마크 저커버그는 오픈 소스 AI가 업계 표준이 될 것이라며, 라마 3.1이 비용 대비 성능 면에서 우수하다고 강조했습니다. (기사보기)    서치GPT, 구글 검색의 대항마 되나? 오픈AI가 실시간 검색 엔진 ‘서치GPT’를 출시하여 구글과의 검색 경쟁을 본격화했습니다. 서치GPT는 다양한 출처에서 정보를 인용, 요약하여 제공하며, 구글 주가는 이 발표 후 3% 하락했습니다. 오픈AI는 퍼블리셔와의 협력을 통해 콘텐츠 사용을 제어하고, 초기에는 제한된 사용자 그룹에서 테스트를 진행할 예정입니다. (기사보기)    AI로 인한 인력 감축 현실화 지난해 미국 게임 업계에서 1만 500명이 해고됐고 올해도 비슷한 수가 해고될 것으로 예상됩니다. 자동화가 더딘 3D보다 2D 아티스트 직종이 위험하다고 보는데, 액티비전 블리자드 등 유명 게임사는 이미 콘셉트 아트 제작에 미드저니, 스테이블 디퓨전 같은 이미지 생성 AI를 이미 광범위하게 사용하고 있습니다. (기사보기)    Wiz, 결국 구글 인수 협상 결렬 Wiz는 구글의 230억 달러 인수 제안을 거절하고, IPO를 추진하기로 결정했습니다. 공동 창업자 아사프 라포포트는 반독점 문제와 투자자 우려를 이유로 들며 인수 포기를 설명했습니다. Wiz는 연간 10억 달러 수익과 IPO를 목표로 계속 성장할 계획입니다. (기사보기)             
141
0
촌장촌장· 9개월

"780조를 벌어라" AI산업의 딜레마

매주 수요일, 안철준 촌장의 <수요레터>입니다 👀 매주 수요일, 안철준 촌장의 <수요레터> 발행됩니다 👀 웹에서 보기 📌 수요 레터 구독하기      "780조를 벌어라" AI산업의 딜레마     요즘 AI 산업에 대한 버블 얘기가 심심치 않게 나오고 있습니다. 광풍이라고 부를 만큼 엄청난 관심과 투자가 AI 산업에 집중되고 있죠. 그런데 과연 AI 산업은 투자한 만큼 돈을 벌 수는 있는 걸까요? 때맞춰 세콰이어캐피털에서 AI 분야의 투자와 전망에 대한 보고서가 나왔습니다. 보고서에서는 AI의 거품이 시작되었다고 얘기합니다.     얼마나 벌어야 되는가?   표는 아주 직관적이고 간단하게 산정되었습니다. 엔비디아 GPU 매출을 AI 산업 투자의 GPU 구매 비용으로 산정했습니다. 다른 GPU 공급 업체들에겐 좀 미안한 얘기지만, 엔비디아의 점유률이 사실 너무 높아서 말이죠. GPU 구매 비용이 전체 데이터 센터 구축 및 운영 비용의 50% 정도 차지한다고 가정합니다. 나머지 50%는 전기요금, 운영비용 등이 포함됩니다. 그래서 이익률을 50% 정도 잡으면 분기별로 얼마나 돈을 벌어야 하는가를 추정한 표입니다. 표에서 보면 AI 산업에서 투자 대비 돈을 벌려면, 2024년 4분기에 6,000억 달러의 매출이 필요합니다. 우리나라 돈으로 780조 원 쯤을 벌어야 AI 산업의 투자가 실제적인 매출 효과로 나타났다고 볼 수 있다는 겁니다.     돈 버는 회사는 없다   그런데 문제는 AI 시장이 그만한 사이즈에 한참 미치지 못한다는 점입니다. AI 서비스로 가장 많은 매출을 내는 곳은 오픈AI 입니다. 오픈AI의 23년 말 매출이 16억 달러였고, 현재 34억 달러로 증가했다고 보고되었습니다. 다른 AI 업체들의 매출도 올라갔다고는 하지만, 순수 AI 사업으로 1억 달러 매출을 넘는 곳은 없습니다. (세콰이어캐피털 리서처의 분석에 의하면 그렇다고 합니다.) 2024년도 4분기에 달성해야할 6,000억 달러에는 정말 한참 미치지 못합니다. 결국 AI 서비스로 돈 버는 기업은 거의 없습니다. 그리고 돈벌려면 아직 한참 남았습니다. 아니군요. AI로 엄청난 돈을 버는 기업이 있군요. 엔비디아.     철도 산업과 AI 산업이 다른 점   그런데 이런 주장도 있습니다. AI 인프라 투자는 철도 인프라 구축과 유사한 면이 있고, 참고 기다리면 언젠가 엄청난 수익이 될 거라는 의견이죠. 처음에 철도를 깔려면 엄청나게 많은 투자가 이루어저야 하지만, 일단 구축이 완성되고 나면 이를 통해 엄청난 생산 효과가 발생한 것처럼 AI도 그렇다는 겁니다. 데이비드 칸 (세콰이어캐피털 연구원)은 기본적으로는 이 의견에 동의하면서 AI 인프라가 철도 건설과는 다른 점이 있다고 주장합니다.       첫째, 가격 독점권이 부족하다.   철도 인프라는 일단 구축하고 나면 독점적 지위를 보장받습니다. 철도는 매우 한정적인 인프라이기 때문에 독점적인 가격 책정 권한이 가능합니다. 하지만 AI 인프라의 경우 새로운 시장 진입자들이 계속해서 시장에 넘쳐 나고 있습니다. 무한대의 경쟁 상황에서는 가격은 한계 비용까지 경쟁적으로 낮아질 수 있죠.   둘째, 투자 소각 측면에도 불리하다.   철도 인프라의 경우는 투자에 대한 가치 보존율이 높습니다. 한번 만들어지면 매우 오랫동안 사용 가능한 인프라인 겁니다. 하지만 AI와 같은 기술 투자의 경우에는 자본 소각이 매우 빠르게 이루어집니다. 엄청난 투자에 비해서 기술의 속도가 너무 빠르기 때문에 기존 투자의 가치가 아주 빠르게 사라질 진다는 점이죠. 엔비디아의 최신 GPU 칩인 B100 보다 더 좋은 차세대 칩이 앞으로 계속 개발되고 공급될 것입니다. 성능은 좋아지고, 가격은 떨어지겠죠. 지난 Computex 2024 기조연설에서 엔비디아 젠슨 황은 앞으로 1년마다 완전히 새로운 칩셋을 선보이겠다고 선언한 바도 있습니다. 그러니 초기 투자의 감가 상각은 더 심각해 질테죠.   셋째, 승자는 소수이고 대부분 패자가 될 것이다.   AI는 확실히 거대한 기술 변화의 물결입니다. 기업은 AI에 인프라 구축에 계속 투자할 것이고, 관련된 비용은 점점 더 낮아질 것입니다. 어느 시점에서는 이런 축적된 기술로 인해 몇몇 기업들은 거대한 성공을 거둘 수 있겠죠. 하지만 훨씬 많은 대부분의 기업들은 패자가 될 가능성이 너무 높습니다.     마무리   그럼에도 투자를 두려워할 필요는 없습니다. 운이 좋고, 침착함을 유지하며, 기민하게 움직이는 기업은 향후 엄청난 기회를 얻게 될 것입니다. 하지만, 심각한 착각에 빠지지 않도록 주의해야 합니다. AGI가 곧 도래할 것이고 우리는 모두 부자가 될 것이라는 환상 말입니다. 현실적으로 AI가 가야할 길은 멉니다. 수많은 기복이 있을 것입니다. 하지만 그럼에도 불구하고 AI는 가야할 미래임에 분명합니다.     촌장 드림     덧붙임 이전 칼럼과는 좀 다른 스타일로 써 봤습니다. 호불호가 있겠지만, 내용 전달에는 더 도움이 될 것이라 생각했습니다. 다양한 의견들 주시면 감사하겠습니다.           🤖 놓치면 안되는 중요한 AI 뉴스     AI 수요 증가, 구글의 탄소배출량 48% 급증하다 구글의 온실가스 배출량이 5년 사이 50% 가까이 급증한 것으로 나타났습니다. 구글은 AI 투자로 데이터센터 소비 전력량과 공급망 배출량 증가가 주요 원인이라고 분석했습니다. 또한 2030년까지 탄소중립 목표 달성의 어려움을 언급하며, AI의 환경 영향에 대한 불확실성을 강조했습니다. (기사보기)      엔트로픽, AI 개발비 매년 10배씩 증가 앤트로픽의 CEO 다리오 아모데이는 최근 AI 모델 개발 비용이 매년 10배씩 증가해 현재는 1.4조 원에 달한다고 밝혔습니다. 3-4년 내에 비용이 138조 원에 이를 가능성이 있으며, AI 모델 성능 향상에 따라 인간을 능가할 수도 있다고 전망했습니다. 이러한 비용 증가에는 GPU와 전력 공급 등 다양한 요소가 영향을 미치고 있습니다.. (기사보기)      13배나 빠르고, 10배 저렴한 AI 훈련 방법 공개, 구글 딥마인드 구글 딥마인드는 AI 모델 훈련 시간과 비용을 크게 줄이는 새로운 방법인 &#39;제스트&#39;를 공개했습니다. 이 방법은 훈련 시간을 13배 단축하고 필요한 컴퓨팅 성능을 10배 줄이는 효과를 보였습니다. 제스트는 소규모 고품질 데이터셋을 사용해 모델을 사전 훈련하고 이를 통해 더 큰 데이터의 품질을 평가해 최적의 데이터를 선택합니다. (기사보기)      AI 학습을 위한 크롤링 봇, 빅4 공개 클라우드 플레어는 주요 AI 크롤러 업체들을 공개하며, 오픈AI, 앤트로픽, 바이트댄스, 아마존의 크롤러가 상위 4개로 선정됐다고 발표했습니다. 바이트댄스의 &#39;바이트스파이더&#39;와 오픈AI의 &#39;GPT봇&#39;이 가장 활발히 활동하며 많은 웹 접속 요청을 기록했습니다. 최근 AI 기업들의 크롤링 활동과 관련된 논란도 지속되고 있습니다. (기사보기)                 
133
0
촌장촌장· 9개월

가장 인간적인 인간

매주 수요일, 안철준 촌장의 <수요레터>입니다 👀 매주 수요일, 안철준 촌장의 <수요레터> 발행됩니다 👀 웹에서 보기공유하기공유하기     가장 인간적인 인간     앨런 튜링의 사고 실험   미국의 인공지능학회에서는 튜링 테스트 란 행사를 매년 열어 왔습니다. 영국의 천재 수학자 앨런 튜링의 이름에서 따온 이 행사는 &#39;인간같은 기계(컴퓨터)&#39;가 가능한 지를 검증하는 행사입니다. 앨런 튜링은 생각을 복잡한 내용으로 규정하지 말고 어떤 상황에서 기계가 인간처럼 행동하고 말한다면 ‘기계도 생각할 수 있다고 판단’하자는 주장했죠. 베네딕트 컴버배치가 주연한 <이미테이션 게임>은 천재 수학자 앨런 튜링의 일대기를 다룹니다. 앨런 튜링은 애플의 베어문 사과 이미지의 모티브를 제공했다고도 알려져 있습니다. (출처)     누가 인간으로 보여? 시험 방법은 이렇습니다. 서로를 가린 채, 심사위원단은 인간 연합군과 컴퓨터 프로그램과 5분간 대화를 나눕니다. 상대를 전혀 모르는 상태에서 순수하게 단말기 상의 대화만을 가지고 누가 인간인지 누가 컴퓨터인지 밝혀내는 경기입니다. 최고점수를 받은 인간에게는 &#39;가장 인간적인 인간&#39; 이란 상을, 최고점수를 받은 컴퓨터에겐 &#39;가장 인간적인 컴퓨터&#39;란 상을 주게 됩니다. (출처 : DALL-E / 안철준)     기계를 통해 인간의 특징을 밝혀내다 &#39;튜링 테스트&#39;에 흥미를 가진 브라이언 크리스찬은 인간 연합군의 일원으로 2009년 튜링 테스트에 참가하게 됩니다. 테스트를 준비하는 6개월 동안 인공지능 컴퓨터에 대해 심도 있는 관찰을 했고, 더불어 무엇이 가장 인간적인 특성인지에 대해 깊은 성찰을 할 수 있는 기회를 가지게 됩니다. 그 과정에서 찾아낸 &#39;가장 인간다운&#39; 특징에 대한 이야기가 <가장 인간다운 인간> 이란 책입니다.   "기계가 어떤 유형의 인간 행동을 모방할 수 있는가? 라는 과학적 물음은 우리가 인간으로서 실제로 어떻게 살고 있는가를 되돌아보게 만드는 기회를 제공한다."   <가장 인간적인 인간> 중에서     불완전함이야말로 인간의 특징 수많은 사례와 실제 &#39;튜링 테스트&#39;의 기록들을 살펴본 브라이언 크리스찬은 이외의 데이터를 발견하고 놀랍니다. 통상적으로 인간적인 능력이라고 볼 수 있는 합리적이고 이성적인 판단과 논리는 인간다움의 특징이 아닐 수 있다는 거죠. 데이터를 통해 확인한 인간다움의 특징은 아래와 같습니다.   해결되지 않은 인생 예상치 못한 균열 즉흥성 서로의 진짜를 알아가는 능력 압축되지 않는 개별적 낯설음 무방비 상태   어떤가요? 얘기를 들어보니 정말 그렇지 않나요? 삶이라는 과정 속에서 일어나는 불완전함과 낯설음이야말로 인간다움의 고유한 특징들이 아닐까요? (출처 Motion Array)   챗GPT도 튜링 테스트에서 탈락 <가장 인간적인 인간>은 2013년에 출간된 책입니다. 벌써 10년도 전에 나온 책이죠. 만약 지금 최근의 LLM 모델 기반의 AI가 튜링 테스트에 도전한다면 어떻게 될까요? 바로 그런 실험이 최근에 있었습니다. 조지아대학교 연구진이 챗GPT를 이용해서 튜링 테스트를 진행했는데, 챗GPT가 튜링 테스트를 통과하지 못했다고 발표했습니다. 좀 실망스러우신가요? 사실 요즘 생성형AI의 성능을 생각하면 좀 의외이기도 합니다. 충분히 통과할 것 같은데 말이죠. 그런데 통과하지 못한 이유가 답변을 못해서가 아니라 오히려 사람보다 너무 뛰어난 정답을 내놓는 바람에 AI 라는 게 탄로 났다는 설명입니다. 챗GPT의 대답에 인간미가 없었던 거죠. 브라이언 크리스찬의 인간다움에 대한 통찰이 10년이 지나 AI의 놀라운 도약 상황에서도 의미하는 바가 있다고 생각되네요. 챗GPT가 아직도 튜링 테스트를 통과하지 못하고 있습니다. 대답을 못해서가 아니라 너무 정확하게 대답해서 인간미가 없어 AI로 탈로났다고 합니다.  (출처 : DALL-E / 안철준)      인간이기 때문에 불안한 것 오늘은 어제와 같지 않습니다. 우리의 감정과 생각은 늘 변하기 마련이고, 뜻밖의 사건들과 새로움으로 혼란스러워합니다. 늘 같은 일상이라 느끼지만, 그 속에 미세한 변화는 있게 마련입니다. 똑같은 상황은 없고, 그래서 우리는 늘 선택의 기로에서 두려워합니다. 이런 상황들이 인간을 가장 인간답게 만드는 요소라고 볼 수 있지 않을까요? 인간이기 때문에 불안한 겁니다. 흔들리지 않는 냉철한 이성을 가진 사람을 우리는 &#39;인간적’이라 하지 않고 ‘로봇’ 같다고 하죠.   "직업 가수인 그녀는 흔들림 없이 노래하기를 원한다. 그러나 인간의 관점에서 볼 때는 공연 때마다 미세하게 감지되는 그 날만의 독특함에 세심한 주의를 기울이는 것, 자신이 터득한 기술에 균열이 생기면서 자신을 빠져들게 만드는 뜻밖의 순간들, 그래서 사물을 새롭게 보고 느끼게 되는 순간들이야말로 우리가 살아 있음을 알리는 신호라 하겠다. 그리고 이것이야말로 우리가 인간으로 남을 수 있는 방법일 것이다." <가장 인간적인 인간> 중에서 그 순간에서 느낄 수 있는 작은 떨림과 흔들거림이 살아 있음을 느끼게 하는 신호일 것입니다. 이런 것들이야 말로 우리가 AI와 다르게 존재하는 가장 중요한 이유이기도 하겠죠. (출처 Motion Array)   가장 인간적인 인간 결국, 브라이언 크리스찬은 2009년도 &#39;튜링 테스트&#39;에서 &#39;가장 인간적인 인간&#39;상을 받게 됩니다. 인간과 닮은 AI와 함께 살아가야 하는 우리들은 어쩌면 AI를 통해 우리 자신에 대해서 더 많은 것들을 배우게 됩니다. 결국 혼돈과 불안 같은 요소야 말로 인간만이 가질 수 있는 고유한 특성이고, 이런 특징들을 부끄러워 하지 않는 것, 자신을 더욱 더 사랑하는 것, 새로운 것을 받아들이려 하는 노력들이 우리를 좀 더 인간답게 만들 수 있다는 사실이 우리를 각성 시킵니다. 브라이언 크리스찬은 기계의 특징을 통해 인간적인 면모를 발견해 내는 독특하고 흥미로운 글을 쓰고 있습니다. <알고리즘, 인생을 계산하다>란 책도 매우 흥미롭습니다. (출처)     "인간미가 없어."   사실입니다. 챗GPT에는 인간미가 없습니다. 너무 인간적이지 않도록 훈련되었기 때문일 수도 있지만, 어쩌면 그렇기 때문에 AI시대에 우리가 인간답게 되어야 하는 이유를 찾아낼 수 있기를 바랍니다. 촌장 드림         🤖 놓치면 안되는 중요한 AI 뉴스     이족보행 로봇이 최초로 현장에 투입되다 이족보행 휴머노이드 로봇이 최초로 물류창고에서 상자 운반 업무를 맡았습니다. 이 로봇은 사람처럼 걸으며 작업을 수행할 수 있어 물류 산업에 큰 변화를 가져올 전망입니다. 이러한 기술 발전은 노동력 부족 문제를 해결하고 작업 효율성을 높일 것으로 기대됩니다. (기사보기)      AI는 절대 인간을 대체할 수 없어, 테트 창 사람과디지털포럼 기조 연설 테드 창은 예술이 무수한 선택의 결과라며 AI가 인간의 예술을 대체할 수 없다고 주장했습니다. 그는 예술 창작 과정에서 인간의 독창성과 감성이 중요하다고 강조했습니다. 또한 AI가 예술의 도구로 사용될 수는 있지만, 인간의 예술적 창의성을 대체하지는 못한다고 설명했습니다. (기사보기)      유튜브와 음반사 손잡다. 음악AI 서비스 준비 유튜브가 AI 음악 생성 도구 개발을 위해 음반사들과 데이터 구매를 논의하고 있습니다. 주요 음반사들로부터 저작권 소송을 당한 AI 스타트업들의 사례를 고려하여, 유튜브는 합법적인 라이선스 확보를 목표로 하고 있습니다. 이에 따라 새로운 AI 음악 생성 도구 출시가 기대됩니다. (기사보기)       저커버그, 폐쇄형 AI 기업들에게 쓴소리  마크 저커버그는 폐쇄형 AI 기업들이 자신들이 신을 창조하는 것처럼 착각하고 있다고 비판했습니다. 그는 한 회사가 모든 것을 제공할 수 없으며, 오픈 소스 모델처럼 많은 사람들이 함께 참여하는 것이 중요하다고 강조했습니다. 또한 메타의 AI 디바이스 개발 계획을 언급하며, 다양한 스마트 장치를 준비 중이라고 밝혔습니다. (기사보기)       
134
0
촌장촌장· 10개월

너무 똑똑한데, 너무 멍청해 - AI 패러독스

매주 수요일, 안철준 촌장의 <수요레터>입니다 👀               너무 똑똑한데, 너무 멍청해! AI의 패러독스     생성형AI는 변호사 시험에 합격할 정도로 똑똑해졌습니다. 그런데 아주 상식적인 질문에는 엉뚱한 대답을 하기도 하죠. 어떤 측면에서는 너무 똑똑한데, 또 다른 측면에서는 어린 아이의 판단에도 미치지 못합니다. 대체 왜 그런걸까요? AI 기업들의 얘기처럼 매개변수가 충분히 더 커지고 학습이 더 많이 이루어지면 문제가 해결 될 수 있는 걸까요? 아니면 생성형AI의 LLM (거대 언어 모델)이 인간의 지능을 모방하는데 근본적인 한계가 있는 걸까요?   워싱턴 대학교의 최예진 교수는 2023년 타임지 선정 인공지능 100대 인물에 포함된 유일한 한국인입니다. 작년엔 AI의 근본적인 문제점을 예리하게 지적한 TED 영상이 큰 반향을 일으키기도 했습니다. 지난 수요일이었죠. 제3회 한겨레신문가가 주최한 <사람과 디지털포럼>에 최예진 교수가 기조연설자로 나왔습니다. ‘엄청나게 똑똑한 AI이지만, 충격적일 정도로 멍청한 AI” 에 대한 이야기를 들려주었습니다. 직접 참석한 소감을 정리해 드립니다.   먼저 AI의 멍청한 실수부터 한번 살펴볼까요? 출처 : 한겨레 신문사     AI의 멍청한 실수 ⓵   5개의 옷을 말리는데 5시간이 걸린다면, 그럼 30개의 옷을 햇볕에서 말리는 데 얼마나 시간이 걸리겠냐는 질문을 ChatGPT-4에게 해보았습니다. 상식적인 질문이죠. 태양 아래에서는 10벌이고, 20벌이건 상관없이 말리는 데 걸리는 시간은 다 똑같습니다. 정답은 5시간이죠. 그런데 ChatGPT는 30시간이라고 대답합니다. 나름 수학적으로 논리를 펴가면서요. 출처 : 최예진 교수 기조연설 발표자료   AI의 멍청한 실수 ⓶   테이블에서 플랭크를 하고 있는 우주인을 그려줘 라고 DALL-E 에게 요청했습니다. 그림에서 보는 것처럼 달리는 그럴싸한 4개의 그림을 뚝딱 만들어 냈습니다. 진짜처럼 너무 잘 그린 그림들이죠. 사람은 이렇게 못합니다. 그런데, 만들어진 그림 중에서 어떤 게 정확하게 그린거야? 라고 물어 봅니다. 그런데 이런 상식적인 질문에 오히려 AI는 잘 답변하지 못합니다. 우리 사람에겐 너무 쉬운 일인데 말이죠. 네 개의 그림 중에서 정상적인 플랭크를 하는 그림은 딱 하나 있고, 이건 사실 어린 아이도 너무 쉽게 맞출 수 있습니다. 출처 : 최예진 교수 기조연설 발표자료 출처 : 최예진 교수 기조연설 발표자료   AI 패러독스   변호사 시험에도 합격할 정도로 똑똑한 AI 이지만, 앞서의 이런 지극히 상식적인 상황과 질문들에 정확한 대답을 하지 못하는 일이 AI 세계에는 비일비재합니다. 좀 더 나은 모델이 있고, 좀 못한 모델이 있는 것도 사실이지만, 근본적으로 생성형AI는 사람에겐 너무 어려운 일은 잘해내지만, 반대로 사람에게 너무 쉬운 판단의 문제를 어려워합니다. 이런 역설적인 상황을 AI 패러독스라고 부릅니다.   무엇이 중한디?   최교수는 생성형 AI와 관련해 가장 시급한 과제로 ‘환각(Hallucination)’ 현상과 더불어 윤리·도덕 문제를 지적했습니다. 그는 “인공지능 모델들은 지금 실제 현실과 가상 현실을 명확하게 구분을 못 하고 또한 사실과 거짓을 혼동하고 있다”며 “이는 결국 인공지능이 주입식으로만 질 낮은 데이터까지 습득해 명확한 사실을 제대로 공부하지 못했기 때문”이라고 말했습니다. “우리 시험공부 때 벼락치기 많이 했잖아요? 그런데 그건 급한 시험 준비엔 도움이 좀 되겠지만, 실제로 깊은 공부가 안된다는 걸 알고 있잖아요. 그런데 지금 거대언어모델(LLM)들은 대규모 데이터를 쏟아붓는 ‘주입식 교육’으로 학습하고 있다고 보면 되는 거죠”     LLM의 근본적인 문제   엄청난 데이터를 학습해서 성능을 높혀가는 LLM 기반의 생성형AI들에는 근본적인 문제가 있다는 것을 알아야 합니다. 사실 LLM은 너무 비효율적인 방식입니다. 실제 하나의 질문에 대답할 때 소모되는 에너지가 구글의 검색 방식에 비해서 10배는 더 발생시킵니다. “무엇보다 중요한 핵심은 사람은 AI 학습 방법처럼 이렇게 세상을 이해하지 않는다는 점입니다. 언어와 지식은 동일하지 않습니다. 그래서 기존의 LLM 방식이 아닌 새롭고 효율적이면서 가벼운 접근 방식이 필요한 시점이 되었습니다.”     인간을 위한 AI   “결국은 인공지능은 인간을 위해서 만들어야 한다고 생각한다.” 고 최교수는 말했습니다. 그동안 인공지능 기술 발전이 더뎠을 때는 인공지능 윤리나 도덕 같은 문제가 사실 그렇게 큰 문제는 아니었습니다. 하지만 이젠 충분히 인류에게 엄청난 영향을 미칠 수 있고 앞으로 그 파급력을 더 커질 것입니다. 그래서 처음부터 인간의 가치와 상식 같은 것들을 인공지능에게 잘 가르쳐야 하는 것이 정말로 중요합니다. 미리 준비하지 않으면 나중에 정말 후회할 상황이 벌어질 수도 있을 것이라 최교수는 강조합니다.   이번 포럼에는 최예진 교수 이외에도 이 시대 최고의 SF작가 중 한명인 테드 창, 인지과학자 아베바 비르하네 교수, 베스트셀러 ‘클루지’의 저자로도 유명한 게리 마커스 교수도 연설자로 나왔습니다. 인간에게 유익한 AI 개발을 위한 다양한 방법들이 제시되었습니다. 몇몇 거대기업과 엔지니어들에게만 AI의 발전을 맡겨두기엔 너무 중요하고 심각한 문제가 되었다는 생각이 듭니다. 다양한 분야의 사람들이 모여 진지한 함의와 고민을 시작해야할 시간이 되었고, 그런 의미에서 이번 컨퍼런스의 의미가 있었다고 생각됩니다.   촌장 드림         🤖 놓치면 안되는 중요한 AI 뉴스     런웨이가 오픈AI의 소라에 대적할 비디오 생성 AI를 선보였다 런웨이가 새로운 동영상 생성 AI 모델 &#39;젠-3 알파&#39;를 발표했습니다. 이 모델은 텍스트, 이미지 또는 비디오를 입력으로 사용하여 10초 길이의 고품질 동영상을 90초 안에 생성할 수 있으며, 감정 표현과 카메라 움직임 등을 세밀하게 제어할 수 있습니다. 런웨이는 이번 주말 유료 사용자에게 먼저 공개하며, 이후 무료 사용자에게도 서비스를 확대할 계획입니다. (기사보기)    애플이 오픈소스를? 온디바이스 AI용 모델 오픈소스로 출시 애플이 온디바이스 인공지능(AI) 앱 구축을 위해 사용할 수 있는 대형 언어 모델(LLM)과 데이터셋을 오픈 소스로 공개했습니다. 새로운 코어 ML 모델 20종과 데이터셋 4종은 메모리와 전력 소모를 최소화하여 최적화되었으며, 네트워크 연결 없이 안전하게 사용자의 장치에서 실행됩니다. 전문가들은 애플의 이번 조치가 클라우드에서 엣지 디바이스로 컴퓨팅 파워를 옮기는 추세와 일치한다고 평가합니다.. (기사보기)    메타의 굴복 : 유럽에서 사용자 데이터를 AI 학습용 사용 중단 메타는 유럽 사용자 데이터 사용을 통한 AI 훈련 계획을 규제 압력으로 인해 중단했습니다. 이 조치는 유럽 연합과 영국에서의 데이터 보호 규정에 따른 것입니다. 메타는 이러한 결정이 사용자 프라이버시를 보호하기 위한 것이라고 밝혔습니다. (기사보기)     Apple Intelligence : 애플의 WWDC2024 정리 애플은 WWDC 2024에서 다양한 새로운 기능과 업데이트를 발표했습니다. iOS 18 을 비롯한 여러 OS의 업데이트 내용들이 선보인 가운데, 애플의 새로운 AI 기술인 Apple Intelligence에 대한 발표가 있었습니다. 그 밖의 다양한 내용을 정리한 기사입니다. (기사보기)               
136
0
촌장촌장· 10개월

애플 AI의 시작

애플AI의 시작 - WWDC24 요약정리     한국시간 6월11일 새벽2시에 애플의 WWDC 2024 키노트가 진행되었습니다. 그 어느 때보다 이번 행사에 관심이 높았던 이유는 애플의 AI에 대한 전략이 이번 WWDC 를 통해 발표될 것이라 알려졌기 때문이죠. Apple Intelligence 라고 불리는 애플 AI의 시작을 살펴보겠습니다.   AI는 Apple Intelligence 의 약자다   팀쿡은 WWDC 2024 키노트 후반에 애플의 AI 전략인 Apple Intelligence 를 발표합니다.   “AI에서 가장 중요한 것은 사용자를 이해하고 일상, 인간관계, 의사소통 등과 같은 개인적인 맥락에 기반을 두어야 합니다.”   애플이 가지고 있는 엄청난 생태계의 모든 장비의 모든 애플리케이션 속에서 강력한 개인화 비서를 만들겠다고 얘기합니다. 개인화된 경험, 상황을 이해하고, 그리고 보안을 무엇보다 가장 중요한 내용으로 생각하는 전략입니다. 마이크로소프트의 방향과 비슷하고, 애플이 가장 잘할 수 있는 접근이라 보여집니다.       Siri가 진화했어요   Siri가 업그레드 되었습니다. Siri를 동작시키면 스마트폰 가장자리가 화려한 빛으로 울렁입니다. Siri를 통해서 앱을 더 효과적으로 제어할 수 있고, 음성 도우미에게 특정 이메일 내의 정보를 찾거나 친구 중 한 명의 사진을 표시하도록 요청할 수도 있습니다. 이제 Siri가 똑똑해졌습니다. 하지만 뭔가 좀 부족하죠?       그래서 Siri에 ChaGPT를 연결했다   애플은 Siri에 ChatGPT를 연결했습니다. 애플 기기에서 ChatGPT를 사용하기 위해 별도의 구독이 필요하진 않구요. ChatGPT와 Siri가 완전히 결합한 건 아닙니다. ChatGPT는 선택옵션입니다.하지만 Siri의 모든 기능에 ChatGPT가 나란히 들어가기 때문에 애플 생태계에서 ChatGPT를 사용하는 것이 자연스러워지고 편리해졌습니다. 애플 자신들의 AI 기술 부족을 ChatGPT를 통해서 보안하면서 스스로 AI를 좇아갈 수 있는 시간을 벌어줄 수 있는 기회로 삼겠죠.       보안이 제일 중요했어요   Apple Intelligence는 보안을 크게 강조합니다. 시스템이 사용자의 요청을 수행하기 위해서 기기 내 처리를 사용해야 하는지 아니면 애플의 개인 클라우드 컴퓨팅 서버에 접속해야 하는지를 자동으로 결합니다. 온 디바이스를 사용하건 클라우드를 사용하건 어떤 경우에도 개인의 정보는 보호된다고 얘기하면서, 프라이빗 클라우드 컴퓨트 라는 정책을 강조하죠. 개인정보가 문제가 되는 날에는 이런 AI 정책들이 하루아침에 신뢰를 잃어버릴 수 있다는 생각이겠죠. 무엇보다 애플이라는 기업의 성격이 잘 드러납니다. 뭘 하더라도 먼저 시도하기보다는 검증받고 안정된 기술을 자신만의 방식으로 포장해서 어필하는 것을 세상 어느 기업보다 잘하기 때문에 AI에 대한 전략도 이렇게 조심스러운지 모르겠습니다.         AI를 통해 즐거움을 누려보라   애플은 iOS 18의 앱 전반에 걸쳐 다양한 새로운 AI 기능을 선보이고 있는데요. 실제로 AI를 통해 잘 활용할 수 있는 부분이 무엇인지를 고민한 것 같네요. Image Playground라는 새로운 AI 이미지 생성기와 함께 텍스트 프롬프트를 기반으로 사용자 정의 이모티콘을 만들 수 있는 Genmoji 라는 기능을 선보였습니다. 나만의 이모티콘을 만들 수 있습니다. 그리고 사진에서 검색기능이 강화되었고, 사진을 정리하는 방법들도 매우 스마트해 졌습니다.       당신이 원하는 대로 아이폰을 꾸며봐요   이번 iOS18에서는 무엇보다 개인화라는 키워드가 가장 강조되었습니다. 사용자 정의 기능이 대폭적으로 강화된 제어센터도 흥미로웠지만 무엇보다 다크모드 전환이 쉽게 되고, 새로운 테마 엔진을 통해서 앱 전체 아이콘의 색상을 변경시킬 수 있는 기능이 쿨해 보였습니다. 자신의 개성을 마음껏 표현해 보라고 응원하는 것처럼 보이지만, 그런데 사실 애플은 개인화에 가장 보수적인 기업이었단 사실을 기억해야 합니다.       iMessage가 좋아졌어요   iMessage는 문자 예약 기능이 추가되었고, 비상시 위성을 통한 SMS 통신이 가능해 졌습니다. 무엇보다 다양한 Tappaa 기능을 통해 메시지 문자를 흥미롭게 표현할 수 있게 되었어요. 텍스트를 굵게 한다던지, 밑줄을 긋거나 기울임꼴로 표시할 수 있습니다. 자동으로 이모티콘 선택되고, 글자의 효과 등도 다양하게 만들 수 있습니다. 그리고 드디어 RCS가 도입된다고 애플이 확인했네요. EU의 압박을 더이상 견디질 못했나 봅니다.       “이 영화에서 나오는 음악이 뭐지?”   애플TV에 InSight라는 새로운 기능을 선보였습니다. 화면에 나타나는 관련 정보를 바로 확인할 수 있습니다. 배우의 이름, 지금 나오는 노래, 그 밖의 여러 가지 정보를 바로 확인할 수 있는데, Amazon의 X-Ray 기술과 유사합니다. 애플 뮤직의 재생목록에도 추가할 수 있다는 장점도 있겠네요       비번도 이젠 애플에서   애플은 ICloud를 통한 새로운 비밀번호 앱을 소개했습니다. 애플의 모든 기기에서 비번을 관리할 수 있는데, 이 앱을 사용하면 LastPass 및 1Password, Keeper 와 같은 다른 비밀번호 관리자를 거의 완전히 대체할 수 있을 것 같네요. 애플이 여러 회사를 죽이겠군요. 사용자 입장에선 돈 굳어서 좋기는 하지만.       왜 아이패드가 필요한지에 대한 애플의 대답   계산기 앱이 이렇게 호평을 받을 줄이야. Math Notes 라는 이 앱은 아이패드에 방정식이나 수학문제를 애플펜슬로 적기만 하면 그 문제의 해답을 자동으로 풀어줍니다. 변수에 따라서 그래프를 그려주고 변화하는 모습을 보여주기도 합니다. 애플펜슬과 아이패드가 필요한 이유를 이렇게나 드라마틱하게 보여주다니요. 이번 WWDC에서 제일 인상 깊었던 기능 중 하나였습니다. 기계 학습을 사용하여 필기 모양을 개선하고 메모의 맞춤법을 검사하는 Smart Script 라는 기술도 선보였는데, 온다비아스 머신러닝을 사용해서 메모에서 필기 내용을 학습하여 필기체 모양을 개선해 주는 기능입니다.       아이폰이 있으면 맥북을 사야하는 이유   macOS의 새로운 버젼의 이름은 Sequoia 입니다. Safari의 업데이트도 흥미롭긴 했지만, 가장 재밌는 것은 아이폰 미러링 기능이었습니다. 맥에서 바로 아이폰을 미러링하고 제어할 수 있는데요. 아이폰을 마치 하나의 앱처럼 사용할 수 있고, 파일, 이미지등을 바로 이동할 수도 있습니다. 연결된 아이폰은 미러 모드에 있는 동안 잠김상태로 유지되면서 보안에도 신경을 쓰는 모습입니다. 역시 애플의 기기간 연동은 대단하다고 생각됩니다.       비젼프로 안죽었어   애플은 visionOS 2를 발표했습니다. 새로운 제스처 기능을 통해 조작을 좀 더 쉽게 할 수 있게 했고, 기존 사진에 대해 공간감을 만들어주는 기능도 개선되었습니다. 무엇보다 맥북과의 연계를 통해 울트라 와이드 가상 Mac 디스플레이에 대한 지원이 굉장히 효과적인 장점이 되지 않을까 싶네요. 화면이 정말 엄청납니다. 더 많은 국가에 대해 출시계획을 발표했는데, 역시나 이번에도 한국은 빠졌습니다.       고개를 흔들기만 하면 "전화 안받아요"   전화가 왔을 때 고개를 흔들어 전화를 거부할 수 있게 됩니다. 에어팟 프로를 착용한 상태에서 말을 할 수 없는 상황에서 고개를 움직이는 제스처를 통해서 제어를 할 수 있는 기능인데 꽤나 흥미롭네요. 에어팟 프로에서는 음성 격리 기능도 탑재되어 배경 소음을 줄입니다 음성 품질을 향상해 준다고 하네요. 인상적이진 않지만 애플만의 감성은 꼭 하나씩 넣는 재미가 있군요.       지금까지 WWDC2024의 핵심적인 내용을 정리해 봤습니다. 아마도 관련된 뉴스와 소식들이 더 쏟아지겠지만, 무엇보다 앞으로 애플의 AI 전략이 어떻게 통할 지 흥미롭게 지켜봐야겠습니다. 좀 싱겁다는 얘기도 많지만, 애플스러웠던 발표였다는 의견도 많네요. 애플은 자신들이 가장 잘하는 방식으로 AI를 내세웠지만 과연 세상이 애플의 바람대로 반응할 수 있을지는 좀 더 지켜봐야 겠습니다. 사람들을 가스라이팅하는데 천부적인 재능을 가진 애플이니 기대해 보겠습니다.     촌장 드림         🤖 놓치면 안되는 중요한 AI 뉴스     애플 AI 발표 - WWDC 전체 내용 애플은 WWDC 2024에서 다양한 AI 기능과 운영 체제 업데이트를 발표했습니다. 주요 내용은 아이폰, 아이패드, 맥용 AI 기능 추가, 시리에 챗GPT 통합, 이미지 생성 도구 공개, 클라우드 컴퓨팅 활용, iOS 18과 맥OS &#39;세쿼이아&#39;의 새로운 기능 도입 등이 포함됩니다. 또한, 향상된 이메일 분류, 사파리 브라우저 개선, 비밀번호 관리 앱 업데이트 등이 소개되었습니다.. (기사보기)    법률 AI의 한계 - RAG 기법으로도 할루시네이션 33%에 달해 스탠포드 대학의 연구에 따르면, 법률 AI 도구들이 검색 증강 생성(RAG) 기법을 사용하더라도 33% 이상의 환각(부정확한 정보 생성)이 발생합니다. 렉시스넥시스와 톰슨 로이터 등의 도구는 각각 17%와 34% 이상의 환각률을 보였습니다. 연구진은 법률 AI 도구의 투명성과 객관적인 벤치마킹의 필요성을 강조했습니다. (기사보기)    AI검색, 구글검색보다 10배 더 전력 소모 - 데이터센터 전력소비량 2030년까지 2배 이상 AI 기반 검색 쿼리는 기존 검색보다 10배 더 많은 전력을 사용한다고 미국 전력연구소(EPRI)가 밝혔습니다. 예를 들어, 챗GPT의 쿼리는 2.9Wh의 전력을 소비하며, 이는 전통적인 구글 검색보다 10배 많습니다. 이러한 전력 소비 증가는 AI의 보급으로 인해 데이터센터의 전력 사용량이 2030년까지 최대 166% 증가할 것으로 예상됩니다. (기사보기)     ChatGPT, 7시간 먹통 - AI 서비스 기업들의 인프라 부족 사태 현실로 오픈AI의 챗GPT는 7시간 동안 두 차례에 걸쳐 서비스 장애를 겪었습니다. 이로 인해 사용자들이 접속할 수 없었으며, 앤트로픽의 클로드와 퍼플렉시티 AI 웹 검색 서비스도 일시 중단되었습니다. 이는 AI 서비스 용량 한계에 도달했기 때문으로, API 서비스는 영향을 받지 않았습니다. 이번 장애는 작년 11월과 12월에 이어 발생한 가장 긴 시간 동안의 접속 장애였습니다.  (기사보기)    인류 최대의 로켓, 스타십, 4번째 시도 끝에 귀한 성공 스페이스X의 &#39;스타십&#39; 로켓이 네 번째 발사 시도 끝에 지구로 귀환에 성공했습니다. 스타십은 텍사스주 보카치카에서 이륙 후 궤도를 진입하고, 47분 후 지구 대기권으로 재진입했습니다. 귀환 중 일부 동체 손상에도 불구하고 인도양에 부드럽게 착수했습니다. 이번 발사 성공으로 최대 100명을 태울 수 있는 대형 우주교통 수단 개발에 한 걸음 다가섰습니다.  (기사보기)       
124
0
촌장촌장· 1년

왜 영화 <튠>에서는 로봇이 나오지 않을까? <듄 : 파트2> 감상 소감

요즘 극장가에서 가장 핫한 영화는 드니 빌뇌브 감독의 <듄 : 파트2> 입니다.   저도 며칠 전에 아들과 함께 영화를 봤는데요. 한마디로 정말 쩔었습니다. 하나의 세계를 완벽하게 자신만의 스타일로 창조하며 나가는 환상적인 영화입니다. 광할한 아라키스 행성의 사막을 배경으로 펼쳐지는 웅장한 영상도 대단했고 한스 짐머의 음악도 영화관을 온통 흔들어댔습니다. 정말 3시간이란 시간이 순식간에 지나갑니다. 영화를 왜 영화관에서 봐야하는 지에 대한 완벽한 사례처럼 보입니다. <듄 : 파트2>는 IMAX에서 봐야하는 영화이다. 영상과 사운드 모두 최고의 경험을 선사한다. (이미지 참조 듄 : 파트2) 요즘 지구 상에서 가장 핫한 배우는 티모시 살라메다. 잘 생겼는데 연기도 잘한다. 이름마저도 섹시하다. (이미지 참조 듄 : 파트2)       영화 <듄 : 파트2>는 프랭크 허버트의 소설 <듄>을 원작으로 만들어졌습니다. 소설의 내용을 모르더라도 충분히 영화를 즐길 수 있습니다만, 소설의 세계관과 내용을 이해하면 <듄 : 파트2>를 더 깊이 받아들이게 됩니다. 전 우주를 지배한 인간이 사막으로 이루어진 아라키스라는 황폐한 별에 왜 그토록 집착하는지, 이 곳에서만 채집되는 스파이스 멜란지가 왜 그렇게 중요한지를 이해하는 건 그래서 중요하죠. 소설 <듄>의 중요한 역사적 배경에는 마치 19세기 초에 영국에서 시작되었던 러다이트 운동을 연상시키는 사건이 있는데, 바로 "부틀레리안 지하드(Butlerian Jihad)"입니다. SF 영화인데 영화의 무대는 온통 사막 한가운데서 펼쳐진다. 영화를 다 보고 나오면 입에 모래가 씹힐 것 같은 착각이 든다. 아주 목마른 영화다.  (이미지 참조 듄 : 파트2)         부틀레리안 지하드   소설 <듄> 속에서 고대 인류는 컴퓨터와 인공지능의 능력이 인간의 지능을 넘어서면서 인간이 기계에게 종속되는 상황에 이르게 됩니다. 때문에 인류는 기계와 인공 지능이 인간의 삶을 지배하려는 시도에 대한 반란을 일으키게 되고, 100년에 걸친 이 전쟁을 부틀레리안 지하드 (Butlerian Jihad)라고 부릅니다. 이 사건은 "인간의 정신을 모방하는 기계를 만들지 말라"는 핵심 원칙 아래, 인간의 능력과 자율성을 지키기 위한 운동으로, 소설의 역사적 배경에서 중요한 역할을 하죠. 부틀레리안 지하드는 <듄>의 역사에서 굉장히 중요한 사건이다. 기계와 인공지능에 맞서 인류가 전쟁을 벌였고 결국 승리한다. 이후로 인류는 인간의 정신을 모방하는 기계를 절대로 만들지 못하게 된다.  (이미지 참조)         기계를 대신하는 인류   인류는 부틀레리안 지하드를 승리로 이끌고 인공 지능과 같은 고도로 발달된 기술에 대한 의존을 금지하며, 대신 인간의 능력을 극대화하는 방향으로 사회와 기술이 발전하게 됩니다. 예를 들어, "멘타트(Mentat)"은 컴퓨터의 기능을 대체하기 위해 훈련된 인간 컴퓨터입니다. 또한, "베네 게세릿(Bene Gesserit)" 같은 집단은 정신과 신체를 조절하는 깊은 훈련을 통해 인간의 잠재력을 극대화되도록 진화하고 발전되어 왔습니다. 멘타트는 인공지능을 대신하는 초지능 인간이다. 스파이스 멜란지를 통해 인간의 능력을 넘어서는 예지능력을 가지게 된다. (이미지 참조 듄 : 파트2)         스파이스 멜란지   행성간 운행이 가능하기 위해서는 고도로 정교한 계산 능력과 예지 능력이 필요합니다. 부틀레리안 지하드 이후 인공지능이 사라진 시대에 이 역할은 인간이 담당할 수 밖에 없죠. “멘타트”가 그 기능에 최적화되도록 훈련받고 길러진 존재인데요. 이들이 이런 엄청난 집중력과 인지능력을 가지기 위해서는 스파이스 멜란지 (Spice Melange)라는 아라키스 사막에서만 발견되는 물질이 반드시 필요합니다. 멜란지는 우주 항해사들이 예지 능력을 발휘하여 안전하게 우주를 항해할 수 있게 하는 핵심적인 요소입니다. 이 능력은 복잡한 우주 경로를 예측하고, 빛의 속도보다 빠른 여행을 가능하게 함으로써, 우주의 다른 지역들 간의 교역과 소통을 유지하는 데 필수적입니다. 스파이스 멜란지는 오직 아라키스에서만 발견되며 우주 전체에서 가장 비싼 물질입니다. 단 10g 으로 대저택을 살 수 있을 정도의 가격으로 추산된다고 하니 영화 <듄 : 파트2>에서 황제, 아트레이데스 가문, 하코넨 가문이 왜 그토록 아라키스를 차지하기 위해 그렇게 싸우는지 이해가 되죠. 스파이스 멜란지는 아라카스 행성의 사막에서만 채취할 수 있다. 사막의 거대한 모래벌레들의 부산물로 만들어진다고 알려졌다.  노화를 막고 수명을 연장시켜 준다. 진시왕이 평생을 찾았던 바로 그 물질이다. 뿐만 아니라 예지 능력을 극도로 올려준다. 그래서 인공지능을 대신해서 인간을 아주 똑똑하게 만들어준다. 그러니 아주 비쌀 수 밖에.  (이미지 참조 듄 : 파트2)         19세기 러다이트 운동   러다이트 운동은 19세기 초 영국에서 발생한 산업 혁명에 반대하는 노동자 운동입니다. 이 운동은 기계화와 자동화가 노동자들의 일자리를 위협하고 생계를 불안정하게 만든다고 보고, 그에 반대하여 기계 파괴 행위를 주요 전략으로 삼았습니다. 영국 정부는 러다이트 운동을 폭동으로 간주하고 이에 대해 강경하게 대응했습니다. 수백 명의 러다이트 운동 참여자들이 체포되었고, 많은 사람들이 재판을 받아 처형되거나 호주로 유배되었습니다. 러다이트 운동은 기술 변화와 노동에 대한 사회적, 경제적 영향을 고려해야 한다는 인식을 확산시키는 데 기여했다는 평가를 받았죠. 19세기 초 러다이트 운동은 기계로 인한 실직의 두려움이 폭발하여 나타난 분쟁이다. 영국 정부에 의해서 결국 제압되고 말았지만, 이후 여러 차례의 기술적 진보가 일어나면서 인류의 불안한 생존 위기 때마다 러다이트 운동의 정신은 계속 살아나고 있다. (이미지 참조)         21세기 러다이트 운동   AI 시대에 진입한 인류는 기술에 대한 새로운 형태의 러다이트 운동을 도모하고 있습니다. <듄> 역사에서의 부틀레리안 지하드처럼 기술 자체에 반대하는 것은 아닙니다. 인간을 대체하거나 지배할 수 있는 기술의 위험에 효과적으로 대응하려는 움직임이 21세기의 러다이트 운동이라고 볼 수 있는데요. 오늘날 러다이트 운동의 정신은 다양한 형태로 진화하고 있습니다. 이는 기술에 의한 사회적 변화와 그 영향을 비판적으로 바라보는 다양한 현대적 운동과 사건들을 통해 드러나고 있습니다.         프라이버시와 감시에 대한 우려 최근 몇 년 간, 정부와 대기업의 대규모 감시와 데이터 수집이 큰 논란이 되었습니다. 개인정보 보호와 사생활 침해 방지를 위한 목소리가 높아지면서, 많은 사람들이 이러한 문제에 대한 인식을 높이고 법적, 정책적 변화를 요구하고 있죠.     소셜 미디어와 디지털 중독 디지털 기기와 소셜 미디어의 과도한 사용은 정신 건강 문제를 비롯해 다양한 사회적 문제를 야기하고 있습니다. 이에 대응하여, 디지털 디톡스 운동이나 스크린 타임을 줄이기 위한 노력이 강조되고 있어요. 이는 기술 사용의 균형을 찾으려는 시도의 일환이라고 보여집니다.       자동화와 일자리의 미래 로봇과 인공 지능의 발전은 많은 전통적인 일자리를 위협하고 있습니다. 이에 따라, 노동 시장의 변화에 적응하고, 노동자의 권리를 보호하기 위한 새로운 방안이 모색되고 있죠. 하지만 대규모의 인력 구조 조정은 피할 수 없는 근미래의 일이 될테고 이는 큰 사회적 이슈가 될 것은 분명해 보입니다.     이러한 현대의 러다이트 운동과 관련된 움직임은 기술이 가져오는 긍정적인 변화를 환영하면서도, 그 영향을 신중하게 평가하고 책임감 있는 방향으로 기술을 이끌어가려는 노력을 반영한다고 볼 수 있죠. <듄> 속의 지하드의 교훈처럼, 우리의 목표는 기술을 통해 삶을 풍요롭게 하는 동시에, 인간의 정신과 자율성을 지키는 것이라고 볼 수 있습니다.         21세기의 스파이스 멜란지   21세기의 러다이트 운동은 기술 발전과 인간의 본질 사이의 균형을 모색합니다. <듄>에서 스파이스 멜란지가 우주적 규모의 경제, 정치, 종교에 영향을 미치는 귀중한 자원으로 묘사되듯, 현대 사회에서 스파이스 멜란지와 유사한 역할은 무엇이 될까요? 아마도 그 후보 중의 하나는 &#39;인문학&#39;일 것입니다. 인문학은 기술이 가져온 변화를 이해하고 해석하는 데 필요한 통찰력과 지혜를 제공합니다. 이는 우리가 기술을 통해 만들어낸 세계에서 인간의 가치와 의미를 탐구하고 유지하는 데 필수적입니다. 인문학이 기술 발전 속에서도 인간의 정체성과 존엄성을 보호하고 증진시키는 스파이스 멜란지와 같은 역할을 수행할 수 있지 않을까요? 게다가 인문학을 배우기 위해서는 스파이스 멜란지처럼 어마어마한 돈이 들지도 않습니다. 사막에서 싸울 필요도 없구요. 21세기 인류의 희망은 어쩌면 인문학일지도 모른다. AI 시대에 무엇이 더 인간을 인간답게 할 것인가에 대한 논의는 정말 중요한 화두가 되어가고 있다.        여담으로 <듄 : 파트3>을 기대하게끔 만드는 떡밥들이 몇 가지 있습니다. 아마도 3편 기대해도 좋을 것 같은데 사실 언제 나올지는 아무도 모릅니다. 배우의 티모시 살레메의 압도적인 미모도 대단하지만, 메인 빌런인 페이드 로타 하코넨 역을 맡은 오스틴 버틀러 라는 배우도 아주 인상깊었습니다. 영화 <글래디에이터>를 연상시키는 경기장에서의 격투 장면은 가히 압도적입니다. 주목해 볼 배우입니다.      촌장 드림 영화는 빌런이 중요하다. 페이드 로타 하코넨의 등장 씬은 많지 않지만 아주 인상 깊다. 민머리가 이렇게 멋지다니. (이미지 참조 듄 : 파트2)      
106
0
촌장촌장· 1년

구글 AI, Gemini (제미나이)의 놀라움과 뻘짓 멀티모달 능력이 이 정도까지? 그런데 이게 조작?

    구글 AI의 놀라움과 헛발질   구글이 새로운 AI를 선보였다.   지난 12월 6일 구글이 새로운 생성형 AI인 Gemini 를 선보였습니다. 어떤 언론에서는 ‘제미니’라고 부르기도 하고, 어떤 기사에선 ‘제미나이’로 호칭하기도 하더군요. 원어 발음이 ‘제미나이’가 맞으니 앞으론 ‘제미나이’로 불려지지 않을까 합니다. 구글에서 절치부심, 새로운 생성형 AI인 Gemini 를 발표했다. &#39;제미니&#39;가 아니라 &#39;제미나이&#39;로 읽어야 한다. 사실 뭔가 북한의 사투리가 생각하는 듯한 구수한 느낌이다. (출처 구글)   이세돌과의 세기적 대결을 통해 AI가 인간을 넘어설 수도 있음을 강렬하게 보여줬던 알파고의 아버지 딥마인드의 데미스 허사비스가 오랫만에 등장해서, AI의 전통적인 강자 구글이 이제야 드디어 ChatGPT-4를 넘어서는 AI를  출시했다고 밝혔죠.  오픈AI의 샘 알트먼이 등장하기 전에, AI 분야의 얼굴 마담은 딥마인드의 데미스 허사비스 였다. ChatGPT 때문에 마음 고생을 하셨는지 안색이 썩 좋지는 않다. (출처 구글)   Gemini 의 핵심 성능   구글에서 주장한 Gemini의 핵심 성능을 대략 다음과 같이 정리할 수 있을 겁니다.    Gemini 울트라 버젼의 성능이 학술벤치마크 32개 중, 30개에서 GPT-4를 능가했다 MMLU (대규모 다중 작업 언어 이해) 테스트에서 90%의 정확도를 보여 인간 전문가를 넘어섰다 (참고로, 오픈AI의 GPT-4는 86.4% 이고, 인간 전문가는 89.8% 점수를 받았다고 한다) 강력한 멀티모달 (Multi Modal) AI로 역사상 가장 뛰어난 추론 능력을 가졌다. 울트라 / 프로 / 나노 이렇게 3가지 버젼으로 출시되며 성능과 용도에 따라서 구분된다. 울트라는 내년 초 출시되며, 프로는 바드에 바로 적용된다. 나노는 모바일 기기에 특화되어 적용될 예정이다. 구글 검색 뿐 아니라 구글 클라우드의 수많은 서비스에 탑재될 예정이다.    Gemini 의 데모 영상   이런 특징에 대한 설명보다 사람들이 가장 놀란 것은 Gemini의 멀티모달 추론 능력을 보여주는 6분짜리 데모 동영상 때문이었습니다. AI가 주어진 상황을 얼마나 잘 파악하고 소통해 나가는 지를 보여준 영상이었는데, 정말 깜짝 놀라게 됩니다.  딱 6분 밖에 되지 않으니 꼭 한번 보시길 추천합니다.     오리가 물에 떠 있어요   데모 영상의 몇 가지 사례를 소개합니다.  Gemini는 손으로 그린 오리 그림을 파악해 냅니다. 오리 옆에 물결을 그리니, 오리가 물에 떠 있는 상황이라고 말을 하네요. 오리를 파란색으로 칠을 합니다. 그랬더니 Gemini가 오리에겐 일반적이지 않은 색이라고 하면서도 그럼에도 파란색 오리가 있을 거라고 합니다. 파란색 고무 오리를 보여주니, Gemini는 깜짝 놀라며 (혹은 놀라는 척 하며) 파란색 오리가 나타났다고 말합니다.  포스트잇에 오리를 그린다. 물결을 그린다. 그걸 보고 Gemini가 "새가 물 위에서 수영을 하고 있네요" 라고 대답한다. (출처 구글) 오리에 파란색을 칠한다. Gemini는 "보통 오리는 그런 색이 아닌데, 파란색도 있는 것 같다" 고 설명한다. 나심 니콜라스 탈레브의 탁월한 책인 <블랙 스완>의 검은 백조를 유추하는 듯한 말이다.  (출처 구글) 파란색 고무 오리를 보여주니 Gemini가 깜짝 놀라며 (놀라는 척 하며) "저런, 파란 오리가 등장했군요" 라고 말한다. 이후로도 파란 고무 오리에 대한 추론과 이야기를 이어간다. (출처 구글)   해변의 음악   또 다른 사례입니다. 기타, 앰프, 북 등의 그림을 그리니 거기에 맞춰 악기 소리를 들려주네요. 여기에 야자수 그림을 하나 덧붙이니 해변 분위기로 음악을 바꾸는 센스를 발휘합니다. 야자나무 그림을 보여주니 알아서 비치 음악을 들려준다. 이 정도면 대단한 센스다. 여성분들이 무척이나 좋아하겠다. (출처 구글)   조작 이슈가 터지다   그런데, 영상이 공개된 며칠 후에 이 데모가 조작되었을 지도 모른다는 의혹이 쏟아졌습니다. 결국 구글은 12월 8일에 이런 의혹에 대해 어느 정도 인정한다고 밝혔습니다. 실제보다 응답 속도를 높였다고 했고, 일부 음성과 영상에 반응하지 않은 부분들에 대해 영상을 편집했다는 점도 인정했습니다. 결국 구글은 공식 설명을 통해 ‘이 비디오가 실제 멀티모달 테스트 결과를 바탕으로 Gemini와의 상호 작용의 가능성을 보여주려는 의도’였다며 사과의 입장을 밝혔습니다.   구글이 조급하긴 조급한가 보다. 조금 더 준비하고 발표할 수도 있었겠지만, 오픈AI에게 이렇게 뒤쳐진 채  올해를 넘기고 싶진 않았을 것이다.   이러자 실제 Gemini의 성능이 아직은 ChatGPT-4에 미지치 못하고 여러 결과들도 구글의 주장일 뿐이지 않냐는 지적이 나오고 있습니다. 예전에 ‘바드’의 공개 때의 실수를 재현하는 꼴이라는 비아냥도 흘러나옵니다. 그래서 구글의 Gemini가 소개된 지 일주일 정도 흐른 지금, Gemini는 ChatGPT에 판정패했다는 정도의 분위기인 듯 합니다. OpenAI의 공세에 맞서기 위한 섣부른 공개가 구글에 또 다른 독이 되는 것 같습니다.   치열한 AI 경쟁, 브레이크는 없는가?    하지만 이번 구글의 Gemini의 발표로 생성형 AI의 경쟁이 얼마나 치열하게 벌어지고 있는지를 여실히 보여줍니다. 세계 최대의 IT기업마저도 AI 경쟁에서 뒤쳐지지 않기 위해 모든 역량을 쏟아 붓고 있다는 초조함이 느껴지네요. AI 경쟁, 과연 그 끝은 어떻게 될까요? AI의 급진적인 진화가 어떻게 세상을 변화시키게 될까요? 우리는 AI 시대에 어떻게 살아가야 할까요? 많은 질문이 꼬리를 물게 됩니다. AI가 몰고올 세상은 어떤 세상일까? 정말 예측하기 쉽지 않다.   또 흥미로운 테크 소식 전하겠습니다.   AI 리뷰어 촌장 드림
109
0
촌장촌장· 1년

🤖 미쳤다, GPT-4 터보오픈AI 개발자 회의 핵심 정리

  미쳤다, GPT-4 터보 오픈AI 개발자 회의 핵심 정리   11월 6일에 샌프란시스코에선 OpenAI의 첫 번째 개발자 회의인 ‘Dev Day’가 있었습니다. OpenAI의 CEO인 샘 알트먼이 나와서 더욱 강력해진 GPT-4 터보(Turbo)를 소개한 자리였는데요. 워낙 이슈가 된 내용이라 많은 분들이 이미 소식을 접하셨을 것 같습니다. 어떤 기사에서는 AI 관련 스타트업들의 장례식을 보는 느낌이었다고 얘기를 할 만큼 OpenAI의 야심과 또 대중을 향한 거대한 전략을 선보이는 중요한 컨퍼런스였습니다. 그래서 이번 수요레터에서는 OpenAI의 첫 번째 개발자 컨퍼런스의 핵심 키워드들을 다시 한번 정리해 드릴까 합니다.       최신의 데이터까지 학습   이번 GPT-4 터보는 최신의 데이터까지 학습이 이루어졌다고 밝혔습니다. 이전 버전에서는 2021년 9월까지의 데이터만을 이용해서 학습을 했기 때문에 최근 정보를 다루는 데는 한계가 있었죠. 하지만 이번 업데이트에서는 2023년 4월까지의 데이터들도 학습에 사용했다고 합니다. 이젠 ChatGPT에서도 최신의 내용들로 검색하거나 정보를 얻을 수 있게 되었습니다. 샘 알트먼은 ChatGPT를 세상에 알린 지 불과 1년 만에 IT의 거물이 되었다 (이미지 출처)     확 늘어난 입/출력 데이터 처리량   GPT-4 터보에서는 한번에 약 300여쪽에 해당하는 최대 12만8천 토큰을 한꺼번에 프롬프트에 입력하는 것이 가능해 졌습니다. 이전까지 가장 큰 입력 데이터는 OepnAI의 가장 큰 경쟁자인 앤트로픽의 ‘클로드’의 10만개 토큰이었다고 하니 이번 업데이트를 통해서 ChatGPT가 경쟁사를 따돌리는 데이터 처리량을 제공하게 된 셈입니다. 책 한권씩 프롬프트에 입력이 가능해졌다. 이젠 인사이트를 얻기 위해 굳이 책을 읽지 않아도 되는 세상이 오는걸까? 좀 우울해진다 (이미지 출처)     다양한 입출력 지원   GPT-4 터보에서는 이미지, 음성 등 다양한 형태의 입출력 지원이 가능해 졌습니다. 예를 들어 이미지를 입력하고 음성(TTS)으로 대답을 얻는 방식이 가능한 거죠. TTL 음성은 총 6개의 모드 중 하나를 선택할 수 있다고 합니다만, 아직 한글 TTS 기능은 제공하지 않네요. 아무튼 사용자 편의성을 확장시키는 OpenAI의 전략이 이번 발표에서 두드러지는 것 같습니다. 사용자 편이성을 강조한 GPT-4 터보  (이미지 출처)     막강한 개발자 지원   개발자 컨퍼런스였기 때문에 개발자 지원에 대한 내용이 많이 포함되었습니다. Assistant API 를 발표하면서 개발자들이 더욱 효율적이고 편리하게 개발을 진행할 수 있도록 도울 수 있게 되었다고 말하죠. ChatGPT를 활용한 개발 생태계를 더욱 확장해 가면서 AI 분야에서의 입지를 공고히 다지겠다는 포부입니다. 코드 인터프리터(Code Interpreter), 지식검색 (Knowledge Retrieval), 함수 호출 (Function Calling) 등의 핵심 사항들이 이번 발표에 포함되었고, 특히 JSON 형식을 지원하는 부분을 강조했어요. 이제 개발자들이 한층 편리하게 ChatGPT를 API 형태로 쉽게 접근하여 다양한 앱들을 출시할 수 있을 것으로 보입니다. 개발자가 더욱 편리하게 GPT를 활용할 수 있는 방법을 제시했다는 측면에서 앞으로 엄창난 관련 서비스들이 출시될 것으로 예상된다. (이미지 출처)     GPTs 그리고 GPT Store   제가 생각하기에 이번 개발자 회의의 가장 하이라이트는 GPTs와 GPT Store가 아닐까 생각합니다. 개발자 뿐 아니라 일반 사용자들도 자신만의 챗봇을 단순히 프롬프트 명령만으로 쉽게 만들 수 있게 되었습니다. 뿐만 아니라 GPT 스토어를 통해 배포가 가능해지고 또한 수익도 창출할 수 있는 생태계를 만들겠다는 겁니다. GPTs는 특정 목적에 맞도록 GPT를 커스텀할 수 있습니다. 예를 들면 자신만의 데이터 베이스를 업로드하고 이런 내용을 바탕으로 특정 도메인에 특화된 챗봇을 제작할 수 있는 겁니다. 이전에는 Enterprise 도메인에서만 가능했던 기능들이었는데, 이젠 일반 개인들도 이러한 파워를 가질 수 있게 되었습니다. 출시한 지 며칠만에 각 분야의 전문가들이 자신만의 챗봇을 만들어 SNS에 공유하기 시작했습니다. 이젠 정말 슈퍼 개인의 시대가 도래한 것 같네요. 자신의 전문성을 가진 개인은 GPTs를 통해 슈퍼 개인으로 거듭날 수 있지 않을까? (이미지 출처) 벌써부터 다양한 GPTs 들이 쏟아져 나오고 있다. 물론 아직은 기대만큼의 성능을 보여주진 못하고 있다. 에러도 많고. (이미지 출처)     가격 인하   이렇게 성능이 강력해졌음에도 오히려 가격은 절반 이하로 낮췄습니다. 입력과 출력의 데이터 가격이 기존 GPT-4 보다 입력은 3배, 출력은 2배 이상 저렴해 진다고 합니다. 이 정도면 아무리 경쟁의 시대라고 해도 좀 너무한다 싶네요. 뒤따라오던 AI 경쟁사들의 고민은 더욱 깊어질 것 같네요. 성능은 이렇게 올려놓고, 가격은 절반 이하로 낮췄다. 대체 뭐하자는 건가? (이미지 출처)     저작권 보호   샘 알트만은 AI의 개발 규제나 저작권 문제들에 대해서 적극적으로 대처하는 행보를 보이고 있습니다. 이번 발표에서도 OpenAI가 저작권 이슈를 해결하기 위해 많은 노력을 기울이고 있다고 여러차례 언급했는데요. 특히 Copyright Shield라는 제도를 도입한다고 발표했습니다. 저작권 침해에 대한 법적 소송이 제기되면 고객을 대신해서 OpenAI 가 관련된 비용을 대신 지불하겠다는 공약입니다. 걱정없이 마음껏 쓸수 있는 개발 및 이용 환경을 조성했다고 말합니다. 하지만 사실 AI 분야에서 저작권 문제는 이제 막 시작되었습니다. 앞으로 어떤 문제들이 AI 산업의 발목을 잡을 지는 아무도 모릅니다. 저작권 이슈는 AI 생태계의 고민거리다. 자신들이 관련된 이슈를 막아주겠다고는 하지만 앞으로 어떤 일들이 벌어질 지는 아무도 모르는 일이다 (이미지 출처)   결론   OpenAI의 이번 발표를 통해 GPT-4 터보는 개발자와 일반 사용자 모두가 쉽게 사용할 수 있는 맞춤형 AI 플랫폼을 제공하는데 주안을 둔 것 같습니다. AI 기술을 대중화하는데 더욱 신경을 썼다는 생각입니다. 사용자 친화적인 인터페이스를 통해 편이성을 높혔고, GPTs라는 개인화된 챗봇 제작툴을 제공하여 수많은 전문앱들을 출시하고 이를 마켓에서 공유하고 판매도 가능한 생태계를 구축하겠다는 복안을 이번 개발자 회의를 통해 밝혔습니다. OpenAI는 이제 더이상 백엔드 플랫폼에만 머물지 않고 빅테크 기업들과 직접적으로 경쟁을 하겠다는 선전포고로 읽히기도 합니다. 이번 컨퍼런스에 Microsoft의 사티아 나델라 CEO가 등장해서 양사의 강력한 파트너십을 얘기하기도 했지만, 미묘한 경계의 분위기는 저만 느낀 건가요? Microsoft의 사티아 나델라가 등장하면서, 샘 알트먼이 제일 먼저 날린 질문이 "우리 관계가 어떻죠?" 였다. 잠시 어색한 표정이 사티아의 얼굴에 스치고 지나갔다. 영원한 우리편은 없는 법이다. 어쩌면 5년 후에 OpenAI가 Microsoft의 위상에 접근해 있을 지 누가 알겠는가? (이미지 출처)   아무튼 AI를 활용하여 비즈니스를 만들어 오고있는 수많은 스타트업의 입장에선 앞으로의 전략을 어떻게 세워나가야할 지 정말 많은 고민을 하게 만든 이번 컨퍼런스 였습니다. 개인의 입장에서도 AI를 활용하느냐 안하느냐가 발전과 성공의 키워드가 되리라 더욱 확신하게 만드는 중요한 의미를 가진 행사였어요.    슈퍼 개미가 아닌 슈퍼 개인이 되고픈 촌장 드림
113
0
촌장촌장· 1년

비틀즈 신곡 <Now And Then> 은 어떻게 만들어졌을까?

    비틀즈 신곡 Now And Then 은 어떻게 만들어졌을까?         지난 주 11월 2일 목요일 밤 11시(한국시간), 비틀즈의 신곡  이 발표되었습니다.     비틀즈의 신곡 이 발표되었다. AI기술을 통해 살아있는 이들과 죽은 이들이 함께 만든 작품이다 (노래 듣기)       존 레논의 미발표 곡이 수록된 테이프를 받았다   이 노래는 존 레논이 총격에 의해 사망하기 1년 전인 1979년에 작곡한 곡으로 알려져 있습니다. 존 레논이 죽은 지 15년이 흐른 뒤, 그의 아내 오노 요코가 폴 매카트니에게 생전에 존 레논이 녹음했던 미발표 노래가 담긴 테이프를 전달합니다. 테이프 속에는 다른 곡들과 함께 이 존 레논이 직접 부른 노래가 저장되어 있었죠. 하지만 사실 당시에는 녹음 상태가 너무 좋지 않아서 세상에 발표하는 건 어렵다고 판단하고 이 곡은 결국 세상에 선보이지 못하게 됩니다.  존 레논 Now And Then 오리지널 녹음. 녹음 상태가 좋지 못하다 <노래 듣기>       AI가 존 레논의 목소리를 분리해 내다   다시, 27년이 흐른 2022년. 비틀즈의 다큐멘터리를 제작하던 피터 잭슨 감독이 음원에서 악기와 보컬을 분리할 수 있는 소프트웨어를 인공지능과 머신러닝을 이용해서 개발했고, 테이프에 녹음되어 있던 지저분한 노래에서 존 레논의 목소리와 피아노를 극적으로 추출할 수 있게 되었습니다. 폴 매카트니는 본격적으로 을 세상에 내놓기 위한 작업에 들어가게 됩니다.  테이프에서 분리해 낸 존 레논의 목소리. 선명하다  (노래 듣기)   Rick Beato 라는 음악 유튜버가 소프트웨어를 이용해서 목소리와 피아노를 분리해 내는 방법을 시현해 보입니다. 간단한 소프트웨어이긴 하지만, 이런 방식으로 보이스와 악기를 구분해 내는 거죠. AI를 이용하기 때문에 존 레논의 목소리를 더 많이 학습시킬 수록 더 정확하게 분리해 낼 수 있다고 합니다. 목소리와 피아노가 함께 녹음된 상태에서 각각의 요소를 분리해 내는 방법을 보여준다  (동영상보기)       네 명의 멤버들의 목소리와 악기로 신곡이 만들어지다    존 레논의 목소리와 피아노 소리를 분리해 내고, 여기에 2001년 사망한 조지 해리슨의 기타 반주를 얹습니다. 그리고 폴 매카트니와 링고 스타가 베이스, 기타, 드럼, 코러스 등 다른 요소를 합쳐서 이번에 을 발표하게 된 겁니다. 세상을 떠난 이들과 살아 있는 이들이 함께 만들어낸 비틀즈의 진짜 마지막 곡이 탄생한 거죠. 에는 2001년 죽은 조지 해리슨의 기타 녹음도 사용되었다. (제작 과정 동영상 보기)       AI 기술이 사람들에게 감동을 주는 방식   AI를 이용한 기술이 없었다면 이런 작업은 불가능했겠죠. 기술이 세상을 바꾸고, 감동을 주는 가장 아름다운 방식이 아닐까 생각합니다.   역사상 가장 영향력 있었던 밴드 그룹, 비틀스의 마지막 곡, 을 감상해 보시면서 오늘 수요 레터를 마무리하고자 합니다. 영상에서 태이프를 플레이어에 넣고, 버튼을 누를 때 처음 울리는 기타 소리가 전율을 일으킵니다. 그리고 후렴구, Now and then, I miss you 라고 존 레논이 노래할 때 찡한 감동이 몰려옵니다. 흘러간 시간, 다시 만날 수는 없는 사랑하는 이들이 저도 때로 그립습니다.    비틀즈의 신곡 <유튜브 보기>   - The Beatles   I know it’s true  사실이란 걸 알아요 It’s all because of you  전부 다 당신 덕분이란 걸 And if I make it through  그리고 만약 내가 해낼때면 It’s all because of you  그건 전부 다 당신 덕분이란 걸 말이죠   And now and then  그리고 가끔은 생각해요. If we must start again  우리가 다시 시작해야 한다면 Well, we will know for sure  음, 우린 꼭 알아내겠죠 That I will love you  내가 당신을 사랑할 것을   I know it’s true  사실이란 걸 알아요 It’s all because of you  전부 다 당신 덕분이란 걸 And if you go away  만약 당신이 가버린다면 I know you’ll never stay  당신은 절대 머무르지 않을 걸 알아요   후렴 Now and then I miss you  가끔은 당신이 그리워요 Oh now and then, I want you to be there for me  오, 때때로 당신이 제 곁에 있어줬으면 해요. Always to return to me  언제나 내게로 돌아와줬음 해요     비틀즈의 향수에 젖는 촌장 드림
108
0
촌장촌장· 1년

가장 투명한 인공지능

  가장 투명한 인공지능   2023년 4월 14일, OpenAI 는 ChatGPT-4를 정식 출시했습니다. 하지만 구체적인 데이터는 공개하지 않았습니다. 매개변수는 얼마나 되는지, 연산의 규모는 얼마인지, 학습에 사용된 데이터의 크기는 얼마인지와 같은 내용을 모두 비공개로 했습니다. OpenAI 라는 기업의 이름이 무색한 발표였습니다. 하지만, OpenAI 만 그런 것은 아닙니다. 전세계 Big Tech 기업에서 경쟁적으로 준비하고 있는 AI의 자세한 정보는 공개하지 않고 있습니다. 왜 그럴까요? 그리고 이런 폐쇄적인 정책이 AI의 방향에 어떤 영향을 주게 될까요?   OpenAI는 ChatGPT-4를 발표하면서 관련된 데이터를 공개하지 않았다   <뉴옥타임즈>에  &#39;Stanford Is Ranking Major A.I. Models on Transparency&#39; 란 기사가 소개되었습니다. AI 모델들의 투명성에 관련된 내용입니다.  <뉴욕타임즈>에 소개된 AI 모델들의 투명성에 대한 기사. 요즘은 세션에 AI에 관련된 기사를 쉽게 접할 수 있다. <이미지 출처>   어떤 AI 모델의 투명성이 가장 높았을까?     스탠포드 대학교에서 가장 많이 알려진 AI 모델의 투명성과 관련되어 랭킹을 발표했습니다. OpenAI, Google, Meta 와 같은 회사의 AI Model에 대해서는 대부분 비공개를 하고 있습니다. 스탠포드 대학교의 관련 프로젝트를 이끄는 퍼시 리앙(Percy Liang) 은 이렇게 말합니다. "3년 전만 해도 AI 모델에 대한 세부정보를 대부분 공개했습니다. 그런데, 이제는 어떤 모델을 사용하는지, 어떤 프로세스를 가지고, 어떤 데이터를 사용하는 지 등 관련된 정보는 거의 제공하지 않고 있습니다."   스탠포드 대학교는 기초 모델 투명성 지수(The Foundation Model Transparency Index) 라는 100가지 기준을 만들어 가장 많이 알려진 10개의 LLM 을 비교하여 그 순위를 공개한 겁니다.  가장 많이 알려진 AI 모델에 대한 투명성 랭킹. Meta의 LLaMA2 가 1위를 했다. ChatGPT-4는 3위이다. 그런데 랭킹보다 중요한 것은 절대적인 점수 자체이다  <이미지 출처>   10개의 모델 중 가장 높은 점수를 받은 LLM은 Meta의 LLaMA 2로 선정되었고, 점수는  54%였습니다.  GPT-4는 48%로 세 번째로 랭킹되었구요. 하지만 중요한 것은 사실 1위를 한 LLaMA2도 100점 만점에 54점이라는 턱없이 낮은 점수를 받았다는 점입니다. 그만큼 AI 모델 기업 어디도 적절한 투명성을 제공하지 못하고 있다는 증명입니다.     AI 모델 정보를 공개하지 않는 이유   AI 기업들이 자신들의 AI 모델에 대한 정보를 공개하지 않는 주된 이유를 일반적으로 세 가지를 듭니다. 첫째는 소송입니다. 일부 AI 기업들은 자사의 AI 의 학습을 위해 웹상의 작가, 예술가, 미디어 회사의 저작물들을 무차별적으로 사용했다고 알려지고 있습니다. 이에 대한 소송 들이 진행되고 있는데 대부분 오프 소스 AI 프로젝트를 타겟으로 하고 있습니다. 그렇기 때문에 무분별한 소송에 자신들을 보호하기 위해선 부득이 비공개를 할 수 밖에 없다고 주장합니다.   둘째는 경쟁입니다. 군수경쟁과 같은 치열한 경쟁이 AI 산업에서 진행되고 있습니다. 작은 차이가 순식간에 경쟁력을 앗아가 버릴 수도 있는 상황에서 자신들의 정보를 오픈할 수 없다는 논리입니다. 보다 나은 데이터 세트, 파인 튜닝에 대한 미세한 노하우 및 최적화 등과 같은 노하우는 쉽게 경쟁업체에서 카피할 수 있는 내용들입니다.   셋째는 안전입니다. AI 모델에 대한 내용이 모두 오픈되면 훨씬 더 빠르고 거대한 혁신이 AI 분야에 일어날 텐데, 그런 폭발적인 확산을 제어하기 어려워진다는 주장입니다. AI 기술이 인류에 커다란 영향을 미칠 수 있기에 더욱 안전한 방식으로 처리되어야 한다고 주장하고 있죠.   개발 커뮤니티로 유명한 는  28%나 되는 인력을 감축했다고 발표했다. ChatGPT 때문에 사용자수가 급감했다고 알려졌다. ChatGPT는 나 의 데이터를 학습했다. 이런 상황 속에서 기존의 데이터를 가지고 있던 기업은 어떤 선택을 할 수 있을까? <이미지 출처>     하지만 스탠포드 대학교 연구원들은 AI 기업들의 주장을 반박하고 나섭니다. AI 기업들이 말하는 비공개에 대한 이유는 합리적인 근거가 부족하다고 말합니다.   1. 소송 : AI 기업의 경영진들이 소송을 걱정한다면 증거를 숨기기보다는 저작권이 있는 정보를 사용하여 모델을 학습함으로써 공정한 생태계를 만들어가야 하고   2. 경쟁 : 경쟁사에게 영업 비밀이 누설되는 것이 걱정된다면 다른 유형의 정보를 공개하거나 특허를 통해 아이디어를 보호할 수 있을 것입니다.   3. 안전 : 안전을 걱정한다고 했는데, 제어하기 어려울 만큼의 경쟁은 이미 일어나고 있는 현실이 아닌가요? 이것을 숨긴다고 해결될 수는 없다고 봅니다.   스탠포드 연구진들은 AI 모델이 점차 강력해질 수도록 더욱 더 많은 정보가 공개되어야 한다고 주장합니다. AI의 능력이 더 올라가고 더 많은 사람들이 사용하게 될 수도록, AI가  어떻게 작동하고, 그 한계는 무엇이고 또한 얼마나 위험할 수 있는 지 등의 정보를 알고 있어야지만 이에 대한 적절한 대처를 할 수 있다는 이야기입니다.  어둠 속에서 AI 혁명을 기대할 수는 없습니다. AI가 우리 삶을 변화시키기 위해서는 AI 내부의 블랙박스를 들여다보아야만 합니다.         당신의 의견은 어떻습니까? 엄청난 자본과 리소스가 투여되면서 AI 군비 경쟁이 현실로 나타나고 있습니다. 2차 세계대전 당시 핵폭탄 개발에 사활을 걸었던 국가간의 경쟁이 결국 어떤 결말을 맺었는지는 역사를 통해 잘알고 있지 않습니까? 어쩌면 AI는 핵폭탄보다도 훨씬 더 우리 삶에 돌이킬 수 없는 영향을 미치게 될 지 모릅니다. 삶의 아주 세부적인 곳까지 AI 가 영향을 미치게 될 때 우리는 어떻게 우리 자신을 지켜나갈 수 있을까요?    기초 모델 투명성 지수 사이트를 방문하면 다음과 같은 메시지를 만날 수 있습니다.     이러한 모델의 사회적 영향은 증가하는 반면 투명성은 감소하고 있습니다. 이러한 추세가 계속된다면 인공지능의 기반 모델은 소셜 미디어 플랫폼 및 기타 이전 기술만큼 불투명해지며 똑같은 실수를 반복할 수 있습니다 While the societal impact of these models is rising, transparency is on the decline. If this trend continues, foundation models could become just as opaque as social media platforms and other previous technologies, replicating their failure modes.     AI가 이런 사악한 모습을 할 가능성은 거의 없다,   촌장 드림
141
0
Arm 코리아Arm 코리아· 5년

ARM Mobile Studio를 사용하여 Mali GPU 분석 속도 높이기

[출처 : Arm]     Peter Harris 2019년 3월 20일   Streamline 성능 분석기는 장치에 있는 ARM CPU와 Mali GPU의 자세한 성능 정보를 제공할 수 있는 샘플 기반 프로파일러입니다. Streamline의 최근 버전에는 사용할 데이터 세트를 쉽게 선택하고 데이터 세트의 시각화 방법을 제어하는 데 사용할 수 있는 사전 정의된 템플릿이 포함되어 있습니다. ARM Mobile Studio 과 ARM Development Studio 에 포함된 Streamline 최신 릴리스에는 Mali Bifrost GPU 계열을 위한 Mali GPU 템플릿의 개선 사항이 다수 포함되어 있습니다. 이 글에서는 Mali-G72 GPU용 템플릿의 사용 방법을 살펴봅니다.   이 블로그에서는 독자가 그래픽 용어, 특히 타일 기반 렌더링 GPU 아키텍처와 관련된 용어에 익숙하다고 가정합니다. 이러한 주제에 대한 몇 가지 유용한 빠른 시작 가이드는 아래에서 찾을 수 있습니다. Understanding Render Passes (렌더 패스의 이해) Understanding GPU Pipelining (GPU 파이프라인의 이해) Understanding Tile-based Rendering (타일 기반 렌더링의 이해) Introduction to the Mali Bifrost Shader Core (Mali Bifrost Shader Core 소개)   카운터 선택 Quick Start Guide 따라 응용 프로그램을 설정하고 타겟에 게이터 데몬(gator daemon)을 설치했다면 이제 몇 가지 데이터 소스를 선택하고 프로파일링을 시작해야 합니다. 장치에 연결하고 Counter Selection 대화 상자를 표시합니다. Counter Selection 대화 상자의 드롭다운 메뉴에서 장치에 적합한 템플릿을 선택합니다.   [출처 : Arm]   이렇게 하면 템플릿의 시각화를 렌더링하는 데 필요한 모든 데이터 소스가 자동으로 선택됩니다. Save를 클릭한 다음, 응용 프로그램의 트레이스를 캡처합니다. 초기 데이터 분석이 완료되면 기본 Timeline 시각화가 표시됩니다. [출처 : Arm]   이것은 캡처된 알파벳순 차트 목록과 데이터 계열을 보여 줍니다. 따라서 제일 먼저 할 일은 시각화 캡처에 사용한 것과 동일한 템플릿을 선택하는 것입니다. [출처 : Arm]   이렇게 하면 우리의 성능 분석팀이 설계한 미리 정의된 시각화를 표시하도록 Timeline이 변경됩니다. 그러면 차트의 순서가 더 체계적으로 지정되며, 수학 표현식을 활용하여 여러 원시 카운터를 조합해 기능 유닛의 사용률 같은 더 읽기 쉬운 메트릭이 도출됩니다.   프레임 찾기 Timeline에 표시되는 초기 뷰가 제공하는 시간은 화면 샘플당 1초입니다. 우리의 가장 큰 관심사는 일반적으로 길이가 16~32밀리초 사이인 프레임을 얼마나 잘 처리하고 있는지 보는 것이므로 1초 단위는 그래픽 콘텐츠를 디버깅하기에는 시간 간격이 너무 큽니다. 따라서 분석의 첫 단계는 단일 프레임을 구별할 수 있을 때까지 뷰를 확대하는 것입니다. [출처 : Arm]   샘플에 표시된 응용 프로그램에서는 응용 프로그램이 eglSwapBuffers()를 호출할 때마다 Streamline 마커 주석이 생성되도록 소스 코드에 주석 (annotation)이 추가됐습니다. 이것은 차트 위 타임 트랙에 빨간색 눈금으로 표시됩니다.   개별 프레임을 볼 수 있게 되면 현재 시스템 동작의 초기 평가가 가능합니다. 프레임 간 시간을 측정하여 달성된 프레임률을 확인합니다. CPU 스레드 부하를 측정하여 CPU 바운드 여부를 확인합니다. GPU 스레드 부하를 측정하여 GPU 바운드 여부를 확인합니다. CPU 및 GPU 워크로드의 파이프라인을 조사하여 응용 프로그램 논리가 버블 스케줄링 없이 그래픽 파이프라인을 최적으로 피딩하는지 확인합니다.   위의 예에서는 프레임의 상당 부분에 대해 CPU가 모두 유휴 상태가 되는 것을 볼 수 있으므로 CPU 바운드가 아닙니다. 또한 GPU가 항상 활성 상태인 것도 볼 수 있으므로 GPU가 이 응용 프로그램의 성능을 제한하는 프로세서일 가능성이 매우 높습니다.   GPU 워크로드를 더 세분하면 프래그먼트 쉐이딩 큐가 항상 활성 상태이며, 모든 지오메트리 및 컴퓨팅 처리에 사용되는 비 프래그먼트 큐는 프레임 대부분 동안 유휴 상태가 되는 것을 볼 수 있습니다. 따라서 성능을 개선하고 싶다면 이 응용 프로그램의 조각 워크로드를 최적화해야 합니다.   이 자습서의 이후 섹션에서는 템플릿의 각 차트를 살펴보고, 그 의미가 무엇이며 차트의 변화가 성능 개선을 모색하는 응용 프로그램 개발자에게 무엇을 시사하는지 설명합니다.   CPU 워크로드 CPU 차트는 시스템에 있는 CPU의 전체적 사용량을 보여 줍니다. [출처 : Arm]   CPU Activity 차트는 big.LITTLE 클러스터링이 있는 경우, 프로세서 유형으로 나누어 CPU가 활성 상태였던 시간의 비율로 계산한 CPU별 사용률을 보여 줍니다. 이것은 OS 스케줄링 이벤트 데이터에 기반합니다. CPU Cycles 차트는 CPU 성능 모니터링 유닛(PMU)을 사용하여 측정된, 각 CPU가 활성 상태였던 사이클 수를 보여 줍니다. 이 두 가지를 함께 고려하면 전체적인 응용 프로그램 소프트웨어 부하를 평가할 수 있습니다. 높은 사용률과 높은 CPU 사이클 수는 CPU가 매우 바쁘며 높은 클록 주파수로 실행되고 있음을 나타냅니다.   [출처 : Arm]   Timeline 탭 하단의 프로세스 뷰는 응용 프로그램 스레드 활동을 보여 주므로 어떤 스레드에서 부하가 발생하는지 파악할 수 있습니다. 목록에서 하나 또는 다수개의 스레드를 선택하면 CPU 관련 차트가 필터링되므로 선택한 스레드의 부하만 표시할 수 있습니다. 스레드 레벨 필터가 활성 상태이면 차트 제목 배경이 파란색으로 바뀌어 측정된 부하 일부를 현재 볼 수 없음을 나타냅니다.   응용 프로그램이 성능 목표에 도달하지 못하고 항상 활성 상태인 CPU 스레드가 하나라면 CPU 바운드일 가능성이 높습니다. 프레임 시간을 개선하려면 이 스레드의 워크로드 비용을 줄이는 소프트웨어 최적화가 필요합니다. Streamline은 성능 카운터 뷰 외에도 프로그램 카운터 샘플링을 통해 네이티브 소프트웨어 프로파일링을 제공합니다. 소프트웨어 프로파일링은 이 튜터리얼의 범위를 벗어나므로 자세한 내용은 Streamline 사용 설명서를 참조하십시오.   GPU 워크로드 GPU 워크로드 차트는 GPU의 전체 사용량을 보여 줍니다. [출처 : Arm]   Mali Job Manager Cycles 차트는 GPU 전체에서 비프래그먼트 및 프래그먼트 작업을 위한 두 개의 병렬 하드웨어 작업 큐를 실행하는 작업에 사용된 GPU 사이클 수를 보여 줍니다. Mali Job Manager Utilization 차트는 GPU 활성 사이클(GPU Active Cycle)에 대한 백분율로 정규화된 동일한 데이터를 보여 줍니다.   GPU 바운드 콘텐츠의 경우, 주된 작업 큐는 항상 활성 상태여야 하고 다른 큐는 이 큐에 병렬로 실행되어야 합니다. GPU 바운드 응용 프로그램의 병렬 처리가 좋지 않은 경우, glFinish()와 같이 렌더링 파이프라인을 드레이닝하는 API 호출 또는 glReadPixels()의 동기화 사용 또는 여러 렌더 패스의 단계 중첩(프레임 간 중첩 포함)을 허용하기에는 너무 보수적인 Vulkan 종속성을 확인하십시오.   이 차트의 Tiler active 카운터는 지오메트리 처리 전체 기간 동안 일반적으로 타일러가 활성 상태이므로 직접적으로 유용하지 않을 수도 있지만 컴퓨트 쉐이딩이 얼마나 있는지 보여 줄 수 있습니다. Non-fragment active와 Tiler active의 격차가 크다면 응용 프로그램 컴퓨트 쉐이더가 원인일 수 있습니다.   IRQ active 카운터는 보류 중인 CPU와의 인터럽트가 있는 GPU의 사이클 수를 보여 줍니다. GPU 사이클 2%까지의 IRQ 보류율은 정상이지만 응용 프로그램이 많은 수의 작은 렌더 패스 또는 컴퓨팅 디스패치를 큐에 넣어 인터럽트 비율이 높아질 수 있습니다.   참고: 높은 IRQ 오버헤드는 권한 있는 커널 동작에 의해 장시간 CPU 인터럽트가 마스킹되는 경우와 같은 시스템 통합 문제를 나타낼 수도 있습니다. 응용 프로그램 변경을 사용하여 높은 IRQ 오버헤드를 수정하기는 일반적으로 불가능합니다.   GPU 메모리 시스템 메모리 시스템 차트는 GPU에 의해 생성된 메모리 트래픽과 시스템이 이 트래픽을 얼마나 효과적으로 처리하는지를 기준으로 GPU 메모리 인터페이스에 나타나는 동작을 보여 줍니다. [출처 : Arm]   Mali External Bus Bandwidth 차트는 응용 프로그램에 의해 생성된 총 읽기 및 쓰기 대역폭을 보여 줍니다. 외부 DDR 메모리 액세스가 매우 에너지 집약적이므로 메모리 대역폭 감소는 효과적인 응용 프로그램 최적화 목표가 될 수 있습니다. 이후의 차트는 응용프로그램의 어떤 리소스가 트래픽의 원인인지를 파악하는 데 도움이 됩니다.   Mali External Bus Stall Rate 차트는 버스 정지가 있는 GPU 사이클의 비율을 보여 주며, GPU가 외부 메모리 시스템으로부터 얼마나 많은 배압을 받고 있는지 나타냅니다. 5%까지의 정지 비율은 정상으로 간주되며, 이보다 훨씬 높은 정지 비율은 메모리 시스템이 처리할 수 있는 것보다 많은 트래픽을 생성하는 워크로드를 나타냅니다. 전체 메모리 대역폭을 줄이거나 액세스 지역(locality)을 개선하면 정지 비율을 줄일 수 있습니다.   Mali External Bus Read Latency 차트는 외부 메모리 액세스 응답 지연의 스택형 히스토그램을 보여 줍니다. Mali GPU는 GPU 사이클 170회까지의 외부 메모리 지연을 고려하여 설계되었으므로 더 느린 빈(bin)에서의 높은 읽기 비율은 메모리 시스템 성능 문제를 나타낼 수 있습니다. DDR 성능은 일정하지 않으며 DDR이 높은 부하를 받을 때는 지연이 증가하므로 대역폭을 줄이는 것이 지연을 줄이는 효과적인 방법이 될 수 있습니다.   참고: DDR은 공유 리소스이고 시스템의 다른 부분에서 오는 경합 트래픽이 있기 때문에 메모리 액세스 중 적은 부분은 더 느린 빈에 있을 것으로 예상됩니다.   Mali External Bus Outstanding Reads/Writes 차트는 또 다른 스택형 히스토그램 세트를 보여 주는데, 이번에는 GPU가 메모리 시스템 큐에 넣은 허용된 메모리 액세스의 비율을 보여 줍니다. 히스토그램이 75~100% 빈에 있는 비율이 높을 경우, GPU에 트랜잭션이 부족할 수 있습니다. 이렇게 되면 이전 메모리 요청이 사용 중지될 때까지 새 메모리 요청이 정지됩니다. DDR에서 메모리 대역폭을 줄이거나 액세스 지역(locality)을 개선하면 성능을 높일 수 있습니다.   GPU 지오메트리 지오메트리 차트는 GPU가 처리 중인 지오메트리의 양과 프리미티브 컬링 유닛의 동작을 보여 줍니다. [출처 : Arm]   Mali Primitive Culling 차트는 처리되는 프리미티브의 절대 수, 각 컬링 단계에 의해 소멸되는 프리미티브 수, 보이는 프리미티브 수를 보여 줍니다. 단일 정점은 메모리 대역폭 요구 사항이 높기 때문에 단일 프래그먼트보다 처리에 훨씬 더 많은 비용이 듭니다. 따라서 프레임당 총 프리미티브 수를 최대한 줄이는 것을 목표로 해야 합니다.   Mali Primitive Culling Rate 차트는 각 컬링 단계에 진입하여 해당 단계에 의해 소멸되는 프리미티브의 비율과 보여지는 프리미티브의 비율을 보여 줍니다. 컬링 파이프라인은 일련의 처리단계로 실행됩니다.     [출처 : Arm]   3D 장면의 경우, 프리미티브의 50%까지는 후면이며 페이싱 테스트 컬링 유닛에 의해 소멸될 것으로 예상됩니다. Culled by facing test 비율이 이보다 훨씬 낮다면 페이싱 테스트가 올바르게 활성화되어 있는지 검토하십시오.   CPU에서 프루스툼 밖에서 그리는 드로우 콜들이 컬링되게 하는 것이 응용프로그램의 표준 모범 사례이므로 Culled by frustum test 비율은 최대한 낮춰야 합니다. 입력 프리미티브의 10% 이상이 이 단계에서 소멸되는 경우, CPU 측 컬링의 효과를 검토하십시오. 또한 지나치게 큰 객체 배치(batch)는 컬링 효율을 떨어뜨릴 수 있으므로 배치 크기를 검토하는 것이 좋습니다.   마지막 컬링 비율인 Culled by sample test는 너무 작아서 래스터화 샘플 포인트에 도달하지 못해 소멸되는 프리미티브의 비율을 측정합니다. 밀집된 지오메트리는 직접 정점 처리 비용이나 프래그먼트 쉐이딩 효율 감소 측면에서 비용이 매우 많이 들기 때문에 이 수치는 가능하면 0%에 가깝게 억제해야 합니다. 여기서 소멸되는 프리미티브가 많을 경우, 정적 메쉬 밀도와 동적으로 lod(level-of-detail)를 선택하는 효과를 검토하십시오.   Mali Geometry Threads 차트는 Mali의 인덱스 기반 정점 쉐이딩 알고리즘에 의해 생성된 쉐이딩 요청의 절대 수를 보여 줍니다. 이 설계는 응용 프로그램의 버텍스 쉐이더를 위치를 계산하는 부분과 다른 varying 변수를 계산하는 부분으로 양분합니다. 가변 쉐이더는 클리핑과 컬링에서 살아남는 프리미티브에 속한 버텍스에 대해서만 실행됩니다. 이 시점에서는 여러 가지를 검토할 수 있습니다. 총 포지션 쉐이더 호출 수를 응용 프로그램 인덱스 버퍼와 비교합니다. 응용 프로그램이 제출한 것보다 많은 인덱스를 GPU가 쉐이딩하는 경우, 인덱스 지역(locality)이 좋지 않은 것일 수 있으며, 이로 인해 포지션 캐시 스래싱과 강제 리쉐이딩이 발생할 수 있습니다. 총 포지션 쉐이더 호출 수를 총 입력 프리미티브 수와 비교합니다. 대부분의 콘텐츠의 경우, 비용을 최대한 분할하기 위해서는 여러 인접 프리미티브가 단일 버텍스를 사용해야 하므로 프리미티브당 평균 정점 1개 미만을 목표로 하십시오.   GPU 쉐이더 프런트 엔드 쉐이더 프런트 엔드 차트는 프리미티브를 쉐이딩할 프래그먼트 스레드들로 바꾸는 고정 함수 유닛의 동작을 보여 줍니다. [출처 : Arm]   Mali Core Primitives 차트는 래스터화를 위해 로드되는 프리미티브의 수를 보여 줍니다. Mali는 타일당 한 번씩 큰 프리미티브를 로드하므로 교차하는 타일마다 이 숫자에 단일 프리미티브가 한 번씩 포함된다는 점을 명심하십시오.   Mali Early ZS Testing Rate 차트는 깊이(Z) 및 스텐실(S) 테스트와 프런트 엔드의 컬링 비율을 보여 줍니다. Early ZS 테스트는 Late ZS 테스트보다 비용이 훨씬 적게 들므로 거의 모든 프래그먼트를 Early ZS 테스트하는 것을 목표로 하십시오. 그 방법은 shader discard, alpha-to-coverage, 쉐이더가 생성한 깊이 값의 사용을 최소화하는 것입니다. FPK killed 카운터는 Mali의 Forward Pixel Kill 은면 제거(hidden surface removal) 체계에 의해 소멸되는 쿼드들(quad)의 비율을 보고합니다. FPK에 의해 소멸되는 쿼드 비율이 높은 것은 뒤에서 앞으로의 렌더링 순서를 나타내며, 이를 앞에서 뒤로의 렌더링 순서로 역전하면 Early ZS 테스트 중에 더 일찍 쿼드가 소멸되어 에너지 소비가 줄어듭니다.   Mali Late ZS Testing Rate 차트는 깊이 및 스텐실 테스트와 조각 쉐이딩 후 백 엔드의 컬링 비율을 보여 줍니다. Late ZS 테스트 중에 소멸되는 쿼드 비율이 높다는 것은 쉐이딩된 후 조각이 소멸되는 것이므로 잠재적인 효율 문제를 나타냅니다.   참고: 투명 색상보다 기존 깊이 또는 스텐실 어태치먼트를 시작 상태로 사용하는 렌더 패스는 리로드 프로세스의 일환으로 Late ZS 연산을 트리거합니다. 이것은 불가피할 수도 있지만 모든 어태치먼트의 삭제 없이 시작하는 렌더 패스의 수를 최소화하는 것을 목표로 하십시오.   Mali Core Warps 차트는 컴퓨팅 프런트 엔드(모든 비 프래그먼트 워크로드 포함)와 프래그먼트 프런트 엔드에 의해 생성된 워프의 수를 보여 줍니다. 워프 폭은 제품마다 다를 수 있습니다.   마지막 두 개의 차트는 스레드당 평균 쉐이더 코어 처리 비용을 보여 줍니다. GPU 바운드 콘텐츠의 경우, 쉐이더 워크로드에는 다음과 같은 가능한 두 가지 최적화 목표가 있습니다. 장면 콘텐츠를 단순화하여 생성되는 워프의 수를 줄이거나 쉐이더 프로그램을 최적화하여 스레드당 비용을 줄이는 것입니다.   GPU 쉐이더 프런트 엔드 픽셀 이 차트 세트는 쉐이더 코어가 픽셀을 생성하는 속도를 살펴봅니다. [출처 : Arm]   Mali Pixels 차트는 모든 쉐이더 코어에 의해 쉐이딩된 총 픽셀 수를 보여 주므로 프레임 생성에 필요한 총 픽셀 수를 평가할 수 있습니다.   Mali Overdraw 차트는 출력 픽셀당 쉐이딩된 평균 프래그먼트 수를 보여 줍니다. 오버드로우 레벨이 높으면 조각당 비용이 낮더라도 성능이 줄어들 수 있습니다. 오버드로우를 줄이려면 사용 중인 투명 프래그먼트의 레이어 수를 최소화하는 것을 목표로 하십시오.   GPU 쉐이더 코어 쉐이더 코어는 GPU의 핵심이므로 쉐이더 코어 워크로드를 검사할 수 있는 카운터가 많은 것에 놀라서는 안 됩니다. 첫 번째 차트 세트의 목표는 전체적인 쉐이더 코어 사용률을 한눈에 볼 수 있는 뷰를 제공하는 것입니다. [출처 : Arm]   참고: 쉐이더 코어 "컴퓨팅" 데이터 경로는 모든 비 프래그먼트 워크로드 처리에 사용되므로 컴퓨팅 관련 카운터에는 정점 쉐이딩 워크로드도 포함됩니다.   Mali Core Utilization 차트는 쉐이더 코어의 3개 주요 부분의 사용률을 보여 줍니다. Compute utilization 계열과 Fragment utilization 계열은 래스터화 및 타일 라이트백(writeback) 같은 고정 함수 논리에 사용된 시간을 포함하여 쉐이더 코어가 해당 유형의 워크로드를 처리하는 시간의 비율을 보여 줍니다. Execution core utilization 계열은 프로그래밍 가능한 코어 자체가 활성 상태인 시간의 비율을 보여 줍니다. 이 비율이 장기간 100% 미만인 경우, 쉐이더 코어 (programmable shader core)를 계속 일할 수 있도록 해야 하는 문제가 있음을 나타낼 수 있습니다. 이 차트의 Fragment FPK utilization 계열은 쿼드를 큐에 넣어 프래그먼트 스레드로 변환되기를 기다리는 시간의 비율을 보여 줍니다. 이 비율이 장기간 100% 미만인 경우, 쉐이더 코어를 위한 새 프래그먼트를 충분히 빠르게 생성하지 못하고 있음을 나타낼 수 있습니다. 이 현상의 원인은 프리미티브당 소수의 프래그먼트를 생성하는 마이크로트라이앵글이 많아서일 수도 있지만 일반적인 그림자 맵 유형처럼 지오메트리를 전혀 포함하지 않는 빈 타일 수가 많은 워크로드를 나타낼 수도 있습니다.   Mali Core Unit Utilization 차트는 실행 코어 내부의 주요 파이프라인 사용률을 보여 줍니다. Execution engine utilization 계열은 쉐이더 코어 산술 유닛이 활성 상태인 시간의 비율을 보여 줍니다. Varying unit utilization 계열은 고정 함수 보간 유닛이 활성 상태인 시간의 비율을 보여 줍니다. Texture unit utilization 계열은 고정 함수 텍스처 샘플링 및 필터링 유닛이 활성 상태인 시간의 비율을 보여 줍니다. Load/store unit utilization 계열은 범용 메모리 액세스 유닛이 활성 상태인 시간의 비율을 보여 줍니다.   쉐이더 코어 바운드인 쉐이더 콘텐츠의 경우, 이 차트를 사용하여 가장 심한 부하가 걸리는 유닛을 찾는 것이 최적화 대상을 결정하는 좋은 방법입니다.   워크로드 속성 Mali Workload Properties 차트에는 워크로드의 흥미로운 동작을 나타내는 다양한 구성요소 계열이 포함됩니다. [출처 : Arm]   Warp divergence rate 계열은 일부 실행 레인(lane)이 마스킹되도록 하는 제어 흐름 분기가 워프에 있을 때 실행되는 명령어의 비율을 보고합니다. 쉐이더 실행 효율을 급속히 잠식할 수 있는 제어 흐름 분기의 최소화를 목표로 하십시오.   Partial warp rate 계열은 커버리지 없는 스레드 슬롯을 포함하는 워프의 비율을 보고합니다. 이것은 프리미티브 엣지와 교차하는 프래그먼트 쿼드로 인해 발생하며, 결과적으로 히트 샘플이 없는 프래그먼트가 생깁니다. 높은 부분 워프 비율은 마이크로트라이앵글 또는 매우 얇은 삼각형이 많은 응용 프로그램을 나타낼 수 있습니다. 쉐이더 실행 효율을 급속히 잠식할 수 있는 부분 워프 수를 최소화하는 것을 목표로 하십시오.   Tile CRC kill rate 계열은 CRC 일치로 인해 소멸되는 타일의 비율을 보고하며, 계산된 색상이 메모리에 이미 있는 색상과 일치함을 나타냅니다. 높은 소멸 비율은 응용 프로그램이 화면의 변경된 부분만 식별하고 드로우할 수 있는 경우, 최적화 기회를 나타낼 수 있습니다.   산술 유닛(Arithmetic Unit) Execution Engine은 모든 산술 워크로드를 비롯한 모든 쉐이더 명령어를 실행하는 데 사용됩니다. 앞서 설명한 Mali Core Unit Utilization 차트의 Execution engine utilization 계열을 사용하여 응용 프로그램의 산술 처리가 제한되는지 여부를 확인할 수 있습니다.   가변 유닛(Varying Unit) Mali Core Varying Cycles 차트는 데이터 정밀도로 나누어 고정 함수 가변 보간 사용량을 보고합니다. [출처 : Arm]   가변 바운드인 콘텐츠의 경우, 다음과 같은 가능한 세 가지 최적화 기회가 있습니다. 직접 워크로드 감소: 프레임당 로드되어야 하는 varying 변수의 전체 수 감소. 정밀도 감소: 32비트 highp에서 16비트 mediump 가변 매개 변수로 전환하면 보간 요구 사항이 절반이 되며, 이로 인해 종종 쉐이더 로직에서 연쇄적으로 성능개선이 발생합니다. varying 패킹: 16비트 varying 변수를 32비트의 배수인 벡터로 패킹하면 사용되지 않는 보간 레인으로 인한 손실 사이클이 최소화됩니다. 예를 들어 패킹된 vec4는 float와 별도의 vec3보다 한 사이클 빨리 보간됩니다.   텍스처 유닛 텍스처 유닛은 모든 텍스처 샘플링과 필터링을 처리하는 복잡한 유닛입니다. 텍스처 유닛은 사용되는 텍스처 형식과 필터링 모드에 따라 성능이 달라질 수 있습니다. [출처 : Arm]   Mali Core Texture Cycles 차트는 고정 함수 텍스처 필터링 유닛의 총 사용량을 보고합니다.   Mali Core Texture CPI 차트는 요청당 평균 텍스처 사이클 수를 보고하며, 더 복잡한 필터링 모드 사용 시 트리거되는 다중 사이클 연산의 수를 파악할 수 있습니다. 텍스처 바운드 콘텐츠의 경우, 단순한 필터링 모드를 사용하여 CPI를 줄이는 것이 효과적인 성능 개선 방법이 될 수 있습니다.   Mali Core Texture Usage Rate 차트는 수행 중인 텍스처 액세스 유형에 대한 통계를 보고합니다. Compressed access 계열은 ASTC와 ETC 같은 블록 압축 텍스처 형식을 사용 중인 텍스처 액세스의 비율을 보고합니다. 게임 렌더링은 대역폭을 줄이기 위해 블록 압축 텍스처를 최대한 이용해야 합니다. Mipmapped access 계열은 밉맵 텍스처를 사용 중인 텍스처 액세스의 비율을 보고합니다. 게임 렌더링은 성능 및 이미지 품질 개선을 위해 모든 3D 장면에 밉맵 텍스처를 사용해야 합니다. Trilinear filtered access 계열은 삼선형 필터링을 사용 중인 텍스처 샘플의 비율을 보고합니다. 이러한 액세스는 이선형 액세스의 절반 속도로 실행됩니다. 3D access 계열은 샘플을 입체적 텍스처로 만드는 텍스처 샘플의 비율을 보고합니다. 이러한 액세스는 2D 액세스 텍스처의 절반 속도로 실행됩니다.   Mali Core Texture Bytes/Cycle 차트는 각 필터링 사이클을 위해 L2와 외부 메모리에서 가져와야 할 바이트 수를 보고합니다. 외부 액세스는 특히 에너지 집약적이므로 압축된 텍스처와 밉맵을 사용하고 캐시 프레셔를 줄이기 위해 좋은 샘플 지역(locality)을 사용하는 것이 좋습니다.   로드/저장 유닛 로드/저장 유닛은 일반적인 읽기/쓰기 데이터 메모리 액세스와 이미지 및 원자적 액세스를 제공합니다. [출처 : Arm]   Mali Core Load/Store Cycles 차트는 로드/저장 캐시에 대해 수행된 액세스 유형을 보고합니다. 읽기 및 쓰기는 &#39;full&#39;이거나 &#39;short&#39;일 수 있습니다. short 액세스는 사용할 수 있는 데이터 버스 폭을 모두 사용하지 않습니다. 벡터화된 메모리 액세스를 수행하여 short 액세스 수를 줄이고 연산 쉐이더에서 공간적으로 인접한 스레드에 있는 인접 데이터에 액세스하면 성능 개선에 도움이 됩니다.   Mali Core Load/Store Bytes/Cycle 차트는 읽기당 L2 및 외부 메모리에서 가져올 바이트 수와 쓰기당 쓰이는 바이트 수를 보고합니다. 사용되는 알고리즘에 대한 지식 없이는 이 카운터를 해석하기가 어려울 수 있지만 메모리 액세스 및 데이터 사용 패턴을 알고 있는 경우, 연산 쉐이더 성능을 조사하는 데 유용할 수 있습니다. 예를 들어 대부분의 부하가 L2 캐시가 아닌 외부 메모리에서 발생하는 콘텐츠가 파악되면 작업 세트가 너무 크다는 뜻일 수 있습니다.   메모리 대역폭 마지막 차트 세트는 트래픽을 생성하는 유닛으로 나누어 쉐이더 코어에 의해 생성된 메모리 대역폭을 보여 줍니다. [출처 : Arm]   전체적인 대역폭 문제가 있는 콘텐츠의 경우, 이 카운터는 가장 많은 트래픽을 생성하는 데이터 리소스를 파악하는 데 도움이 될 수 있습니다. 로드/저장 유닛 트래픽은 모든 유형의 버퍼 액세스와 image() 접근자를 통한
2.6K
0

[AI 해커톤] NAVER AI BURNING DAY

  [NAVER AI BURNING DAY] - 신청 기한 : 2020년 1월 20일(월) 24:00까지 신청 - 참가 대상 : 나이와 신분에 제한 없이 AI에 관심이 있거나 개발을 좋아하는 모두   (* 팀 구성은 최대 4인까지 가능합니다. 1인 팀이나 2인 팀 구성도 가능) - 미션 내용 : 제공하는 네이버 클라우드 플랫폼 AI API를 활용한 앱 또는 웹 개발 - 일시 및 장소 : 아래 그림 참고   NAVER AI BURNING DAY 자세히 보기 >>>>>>>>>> https://campaign.naver.com/aihackathon_ai_burning/ NAVER AI BURNING DAY 참가 신청하기 >>>>>>>>>> https://campaign.naver.com/aihackathon_ai_burning/popup.nhn  
1.5K
0
사용자 프로필· 5년

[AI 해커톤] NAVER AI BURNING DAY

  [NAVER AI BURNING DAY] - 신청 기한 : 2020년 1월 20일(월) 24:00까지 신청 - 참가 대상 : 나이와 신분에 제한 없이 AI에 관심이 있거나 개발을 좋아하는 모두   (* 팀 구성은 최대 4인까지 가능합니다. 1인 팀이나 2인 팀 구성도 가능) - 미션 내용 : 제공하는 네이버 클라우드 플랫폼 AI API를 활용한 앱 또는 웹 개발 - 일시 및 장소 : 아래 그림 참고   NAVER AI BURNING DAY 자세히 보기 >>>>>>>>>> https://campaign.naver.com/aihackathon_ai_burning/ NAVER AI BURNING DAY 참가 신청하기 >>>>>>>>>> https://campaign.naver.com/aihackathon_ai_burning/popup.nhn  
575
0
엣지dpt엣지dpt· 6년

인공지능이 아이들의 수학 교육도 코칭하는 시대?!

이제 인공지능 기술로 아이들의 수학교육을 맞춤형으로 가르칠 수 있는 시대가 왔네요!! ;) 관심있는 분들은 한번쯤 보심 괜춘할거 같아요!! https://youtu.be/bsZnbJ1B32c
1.2K
0