2023의 게시물 표시

2023년에서 본 메타버스에서의 경제 활동 기회

메타버스 안에서의 수익 창출 기회에 대하여 2021년에 메타버스 내에서 광고 수익 창출 가능성에 대한 생각을 짧게 얘기한 적이 있었다.  메타버스 맵 내에서 광고 수익 창출도 실현될까? 최근 해가 갈 수록 메타버스 관련 기술도 발전하고 관련 콘텐츠와 트렌드도 강화됨에 따라, 우리가 앞으로 다가올 시대에 쏟아질 새로운 기회에 대응할 수 있도록 메타버스 안에서 수익 창출 기회에 대해 한 번 더 생각해보고자 한다. 3D 산업에 대한 접근성 향상 3D 산업에 대한 진입 장벽이 우리가 생각하는 것보다 빠르게 낮아지고 있다. 이제는 일반인들도 큰 시간과 비용을 투자 하지 않고 3D 작업을 할 수 있는 시대가 되었다. 지난 포스팅들에서 얘기한 것처럼 3D 관련 기술은 여러 방식으로 접근성을 키우고 있는데, 생성형 AI의 결합, 웹 구동 방식의 적용 및 UX, UI 개선, 모바일 기기를 이용한 3D 스캔 기술 등이 이를 가능하게 한다. 2023년 생성형 AI를 이용한 3D 모델링 및 디자인 현황 3D 디자인 툴의 혁명 spline.design 2023년 3D 스캔 툴 현황 3D 모델 렌더링은 AI에 의해 대체 가능한가?

2023년 3D 스캔 툴 현황

이미지
메타버스와 디지털 트윈을 위한 스마트폰 3D 스캔 2020년을 지나면서 메타버스와 관련된 트렌드는 점점 강화되고 포토리얼리스틱 환경을 구축하기 위한 노력도 많아지고 있다. 디테일한 모델링, PBR(물리 기반 렌더링) 머티리얼 등 사실적인 표현을 위한 여러 기술들이 발전하고 있지만 디지털 트윈을 구축하기 위한 또 다른 방법은 바로 3D 스캔을 이용하는 것이다. 고가의 장비로만 가능했던 3D 스캐닝 기술이 이제는 스마트폰 카메라만 있으면 누구나 시도할 수 있을 정도로 보편화되었다. 그러므로 2023년을 기준으로 시장에 어떤 3D 스캔 툴이 있는지 정리하려고 한다. Unreal Engine Reality Scan Luma.ai Unreal Engine Reality Scan 2022년 12월 언리얼엔진은 스마트폰 카메라를 이용한 사진을 조합해 3D 모델을 생성하는 리얼리티 스캔의 아이폰 버전을 공개했다. 직사광선처럼 매우 강한 빛을 받고 있거나, 세라믹, 플라스틱, 또는 물에 젖어 색이 바뀌는 재질은 사진 측량시 좋은 결과를 얻기 힘들기 때문에 피하는 게 좋다고 한다. 그러므로 그늘 진 곳에서 빛을 모든 방향에서 골고루 받는 오브젝트가 촬영하기 적합하다. 포인트 클라우드를 통해 모델이 생성되며, 촬영하면서 카메라 정렬 퀄리티를 실시간으로 확인 가능하기 때문에 빠른 피드백을 통한 수정 보완이 가능하다. 완성된 모델은 스케치팹 계정과 연동해서 내보낼 수 있다. 2023년 6월에는 안드로이드 버전이 공개되었다. 이제 모든 사람이 가지고 있는 스마트폰을 이용해서 손쉽게 고퀄리티의 포토리얼리스틱 3D 모델을 생성할 수 있게 되었다. Unreal Engine Reality Scan 홈페이지 :  https://www.unrealengine.com/ko/realityscan Luma.ai 루마 ai는 동영상을 이용해 3D 모델링 및 애니메이션을 생성하는 서비스이다. 씬 또는 오브젝트당 1달러에 이용할 수 있으며, 모델 당 30분의 컴퓨팅 시간으로 전자 상거래를 위한 전체 인벤토

스플라인으로 컨베이어 벨트 3D 모델링하기 튜토리얼

이미지
  백그라운드 컬러를 먼저 바꾸어주고 시작했다. 화면 아래 상단 바에 아이콘을 이용해 사이드뷰로 돌리고 화면 상단 바에 있는 사각형 툴을 이용해 사각형을 그려준다. 사각형을 선택하고 오른쪽 Shape 탭 아래를 보면 'Convert to Path' 버튼이 있다. 해당 버튼을 클릭해 사각형 평면을 패스로 변환 시킨다. 패스로 변환시키면 라인을 따라서 두꺼운 형체가 만들어지는데, 오른쪽 탭의 설정 값을 바꾸어 위 이미지처럼 모양을 만들 수 있다. Path 탭에 있는 Corner 값을 늘리면 패스의 각이 둥글어지고 Path Extrusion 탭의 Shape을 사각형으로 바꾼 후 Size 값을 조절해 두께와 너비 등을 변경할 수 있다. 아래 Material 탭에서 컬러 또한 바꾸어주었다. 벨트 위에 사각형 평면을 그려주고 오른쪽 Cloner 탭을 활성화해주면 오브젝트를 복제할 수 있다. count 값을 올려 복제 개수를 늘리고 scale 값을 올려서 간격을 벌릴 수 있다.

2023년 생성형 AI를 이용한 3D 모델링 및 디자인 현황

이미지
생성형 AI를 이용한 3D 모델링 2023년 현재 생성형 AI 기술을 적용한 서비스들이 쏟아져 나오며 생산성 혁명을 일으키고 시장의 큰 변화를 일으키고 있다. 3D 모델링 및 산업 디자인, 그래픽 디자인, 모션 그래픽 등 수 많은 분야에도 AI 기술이 적용되고 있다는 소식이 끊임 없이 들려오고 있다. 3D 아트 및 디자인 분야에서 기술 트렌드를 파악하고 생산성 향상을 위한 도구로 받아들이기 위해, 3D 모델링 및 디자인 업계의 각 서비스들에 생성형 AI 기술이 어떻게 적용 되어있는지 정리하려고 한다. Fusion 360  Generative Design Blender Stability For Blender Spline.design AI Texture Generation Spline AI Alpha Version AI Style Transfer 3DFY.ai G3D.ai Fusion 360 Generative Design 2019년부터 퓨전 360은 제너레이티브 디자인 기능을 지원한다. 퓨전 360의 제너레이티브 디자인은 클라우드 및 기계 학습을 활용한 설계 방법이다. 만들고자 하는 결과를 위해 재질, 제조 방법, 구조적 성능 수준 등의 설계 목표를 입력하면 설계 요건을 충족하는 모델을 자동으로 생성한다. fusion 360 generative design 소개 페이지 :  https://www.autodesk.co.kr/solutions/generative-design/manufacturing Generative Design 적용 사례 Kartell AI chair kartell ai chair 2019년, 이탈리아 명품 가구 회사인 카르텔은 필립스탁과의 협업을 통해 제작한 AI 체어를 공개했다. 친환경 플라스틱을 사용했으며 최소한의 재료로 제작할 수 있도록 설계되었다. kartell ai chair 쇼핑몰 :  https://kartellkorea.co.kr/shop/item.php?it_id=1593063884 Blender Stability For Ble

3D 디자인 툴의 혁명 spline.design

이미지
스플라인(Spline.design)이란? 스플라인(Spline.design)은 누구나 쉽게 3D 디자인을 구현할 수 있는 강력한 툴이다. 3D 모델링, 텍스처, 물리 환경 및 이벤트 구현 등을 이용하여 인터랙티브한 경험을 만들어볼 수 있다. spline.design 홈페이지 스플라인 홈페이지 :  https://spline.design/ 스플라인의 장점 AI 기술 spline.design은 인공지능 기술을 적극 활용한다. 프롬프트에 텍스트를 입력해 chat GPT와 대화할 때처럼 프롬프트에 입력함으로써 3D 디자인이 가능한 기능을 적용했고 AI 스타일 트랜스퍼를 통해 카툰 렌더링을 비롯한 수 많은 렌더링 스타일을 클릭 한 번으로 바꿀 수 있는 기술을 적용했다. 프롬프트를 이용한 3D 디자인 영상 :  Introducing Spline AI - Design in 3d using AI 인공지능 스타일 트랜스퍼 영상 :  Update: Introducing AI Style Transfer for 3d scenes with Spline 인공지능은 이미 디자인 분야의 생산성을 극대화 시키며 시장의 방향을 바꾸어버렸다. '스테이블 디퓨전'이나 Open AI의 'DALL-E 2' 등의 서비스는 프롬프트 입력으로 이미지 생성 및 편집기술의 한계를 뛰어넘을 수 있음을 보여주었고, 포토샵은 제너레이티브 필 기능을 도입하며 발 빠르게 트렌드를 따르고 있다. 포토샵 제너레이티브 필 소개 영상 :  Introduction to Generative Fill | Adobe Photoshop   2D 디자인에서 3D 디자인으로 AI 기술이 도입 되기까지 1년이 채 걸리지 않은 만큼 인공지능 은 생산성 측면에서 거스를 수 없는 트렌드가 되었다. 스플라인은 AI기술을 빠르게 도입함으로써 생산성 향상에 대한 디자이너들의 수요를 충족시키고 일반인들도 쉽게 작품을 만들 수 있도록 진입 장벽을 낮췄다.  웹에서 실시간으로 협업 스플라인은 실시간 협업 기능 덕분에 여러 사

이미지 소스 제작에서 DALL-E 2의 활용성

이미지
DALL-E 2를 이용한 이미지 소스 적용 과정 이 글에서는 무료 이미지 소스가 필요할 때 DALL-E 2를 어떻게 활용할 수 있는지, 내가 운영 중인 웹사이트에 어떻게 적용했는지 얘기하려고 한다.  머티리얼 아카이브 웹 서비스 PEELOFF 해당 웹 사이트 :  http://peel-off.web.app 나는 산업 디자이너들이 소재 관련 정보를 빠르게 찾을 수 있도록 웹 서비스를 운영 중이다. 각 소재의 데이터를 정리해 업로드 할 때 사용자의 이해를 위해 소재의 사진을 함께 올리고 있는데 이미지 소스를 구할 때마다 어려움을 겪곤 한다. 이미지를 직접 촬영하면 좋겠지만 소재의 종류가 워낙 다양하고 많아서 웬만하면 웹 상에서 소스를 모으려고 한다. 그래서 기존에는 Unsplash처럼 무료로 고품질의 이미지를 공유하는 사이트를 자주 이용했는데 그럼에도 불구하고 찾지 못하는 소스들이 있기 마련이다. 예를 들면 LDPE소재의 경우가 그러하다. 플라스틱으로 분류되기 때문에 plastic을 검색하면 다양한 자료가 볼 수 있지만 LDPE라고 검색하면 이름의 특수성 때문에 아무런 결과도 찾지 못한다. LDPE는 비닐 봉투에 사용되는 소재이기 때문에 비닐을 구해서 직접 촬영을 해야 하나 고민하고 있었을 때, DALL-E 2가 떠올랐다. DALL-E 2를 이용한 머티리얼 이미지 소스 제작 DALL-E 2를 이용한 머티리얼 이미지 소스 제작 DALL-E 2에 접속해 프롬프트에 'LDPE material, realistic, photo'라고 간단하게 적어주었다. 위 이미지에서 볼 수 있는 것과 같이 비닐 사진처럼 보이는 이미지를 만들어서 출력해준다. 개별 이미지를 자세히 보면 어색한 부분도 있지만, 첫 번째 비닐을 여러 번 접어 놓은 것처럼 보이는 사진은 쓸 수 있다. DALL-E 2를 이용해 만든 머티리얼 이미지 소스  위 이미지를 사이트에 적용하기로 결정했다. DALL-E 2를 이용해 만든 이미지 소스 적용 PEELOFF 웹 사이트에 적용한 DALL-E 2 이미지

3D 모델 렌더링은 AI에 의해 대체 가능한가?

이미지
AI의 급부상 최근 Open Ai의 chat GPT 및 DALL-E 2를 비롯해 Stable Diffusion 등 다양한 인공지능 서비스 들이 쏟아져 나오면서 세상이 정말 급격하게 변하고 있음을 느낀다. 기술이 발전하는 속도가 문득 체감 될 때마다 금세 뒤처질 것 같은 불안감과 함께 섬뜩함이 들고는 한다. chat GPT는 이미 내 일상에 깊이 자리 잡아서 대부분의 일을 할 때 사용하고 있다. chat GPT를 사용할 때와 사용하지 않을 때의 생산성 격차가 너무 커서 사용하지 않을 수 없다. 최근에는 개인 프로젝트로 웹 서비스를 만들어서 배포했는데 chat GPT의 공헌이 컸다. 서비스 기획의 큰 틀은 이미 내 머리에 있었지만 기획적 부분의 맥락을 다듬는데 도움이 되었고, 무엇보다 코드를 작성할 때 큰 도움을 받았다. 내가 개발을 전문적으로 배운 게 아니라 개인적으로 공부하면서 작업을 했기 때문에 전문 지식과 기술이 많이 부족했는데, 개발 과정에 문제가 생길 때마다 돌파구를 제시해줬다. 서비스의 최소 기능 제품이 완성되기까지 개발 과정이 3일 정도 걸렸는데, chat GPT를 사용하지 않았더라면 적어도 일주일은 지나서 완성했을 것이다. 3D 모델의 렌더링을 AI가 대체할 수 있을까 최근에는 AI 이미지 생성 서비스인 DALL-E 2와 midjourney를 접한 뒤로 '이 기술이 렌더링 분야에도 적용될 수 있을까?'라는 생각이 한동안 머릿속을 맴돌던 궁금한 내용이었다. 얼마 전에 해당 서비스들이 Diffusion 모델을 토대로 제작된 서비스라는 정보를 알게 되었고 Stable Diffusion이라는 오픈소스 기술도 존재한다는 사실을 알게 되었다. 마침 전날 친구와 '건축 렌더링 분야를 AI가 대체하기까지 얼마나 남았을까'라는 얘기를 한 터라 곧바로 구글 CoLab을 통해 Stable Diffusion을 접해봤는데 아직 숙련도가 낮아서 결과물을 만들기는 어려웠지만 몇 가지 정보들을 찾아보니 충분히 가능할 법도 한 것 같았다. 조금 사용