728x90

2021년 ‘스마트팩토리 소프트웨어 개발자 양성과정’에서 AR 콘텐츠 제작을 직접 강의하고, 교육생들과 함께 만든 결과물을 코엑스 전시회에 출품한 경험을 공유하고자 합니다.
단순한 강의에서 끝나지 않고, 교육생들이 실무에 가까운 수준의 콘텐츠를 제작하고, 실제 산업계 전문가들에게 발표할 수 있도록 연결된 값진 과정이었습니다.


🧠 교육 내용 요약 – AR을 활용한 스마트팩토리 구현

▶ 강의 내용

  • Unity 기반 AR 콘텐츠 제작 실습
  • AR Foundation을 이용한 산업 장비 모델링 + 센서 시뮬레이션
  • 스마트팩토리 시나리오 기반의 콘텐츠 구성법 (예: 작업자 안내, 설비 이상 감지)

▶ 실습 과제 예시

  • PLC 제어 패널을 인식하여 3D 모델과 가동 상태를 시각화
  • 스마트공장 설비에서 온도/습도 센서값에 따라 작동 애니메이션 변형
  • AR 기기로 설비 상태 점검 시나리오 구현

https://www.youtube.com/watch?v=cmZokhGmvWI

 


🎓 교육생과 함께 만든 프로젝트

전시회에서는 **“메타버스 기반 AR 공장 설비 점검 콘텐츠”**를 출품했습니다.

  • 실제 센서 데이터를 Unity에서 시각화
  • 건물 구조와 내부 설비를 3D 모델로 구현
  • 사용자가 직접 기기를 통해 설비 상태를 점검하고, 이상 여부를 판단하는 체험형 콘텐츠로 구성

📷 프로젝트 시연 장면


🏢 코엑스 전시회 참가 후기

  • BYMETA 부스에서 AR/MR 솔루션을 선보이며 많은 관계자들과 실제 산업 적용 가능성에 대해 소통했습니다.
  • 교육생들이 자신 있게 발표하고, 현장 전문가들에게 피드백을 받은 것이 큰 의미였습니다.
  • “교육-제작-전시-피드백”의 선순환 구조를 체험할 수 있었던 값진 기회였습니다.

📷 교육생과 함께한 현장 발표 장면


🔧 사용 기술 스택

  • Unity 2021, AR Foundation, Blender (모델링)
  • Android AR 기기
  • MQTT 센서 시뮬레이션
  • OPC UA 연동 실험도 일부 진행

🧩 느낀 점

이론과 실습을 겸한 교육은 물론, 성과물을 실질적인 결과물로 연결하는 과정이 무엇보다 중요하다는 걸 다시금 느꼈습니다.
향후에는 디지털트윈 + AR 기반의 프로젝트를 확장하여, 설비 유지보수/현장 작업자 교육/원격 모니터링까지 실제 기업과 협업할 수 있는 방향으로 이어갈 예정입니다.

728x90
728x90

🎬 옵틱 모션캡처(Optical Motion Capture)란?

옵틱 모션캡처 기술은 카메라 기반의 외부 추적 시스템으로, 배우나 사용자의 신체 움직임을 실시간으로 3D 데이터화하여 가상 캐릭터에 적용하는 기술입니다.

이 기술은 영화 <아바타>, 게임 <라스트 오브 어스>와 같은 고퀄리티 애니메이션 및 게임 개발에 핵심적으로 사용됩니다.


🧍‍♂️ 착용형 옵틱 장비 구성

  1. 전신 수트 + 반사 마커 부착
    • 신체 주요 관절에 반사 마커를 부착하여 광학 카메라가 위치·움직임을 정밀하게 추적합니다.
  2. 멀티 카메라 트래킹 시스템
    • 6~20대의 적외선 카메라가 마커 위치를 3차원 좌표로 계산
    • 카메라가 서로 다른 각도에서 데이터를 취합하여 정확한 모션을 재구성합니다

📷 실제 장비 착용 사진

 


🧠 데이터 처리 과정

단계설명
1. 캡처 장비 착용자가 움직이면 각 마커의 위치가 실시간으로 추적됩니다
2. 데이터 클리닝 잡음 제거 및 부정확한 프레임 보정
3. 본(Bone) 바인딩 3D 캐릭터 스켈레톤과 연결
4. 실시간 적용 Unity/Unreal 등에서 애니메이션 적용
 

🧑‍💻 Unity에서 캐릭터 움직임 연동

▶ 기본 구성

  • Unity + Mecanim 애니메이션 시스템
  • MotionBuilder 또는 Rokoko Studio → FBX → Unity로 연동

https://www.youtube.com/watch?v=k-fBnRhziRU

 

🌐 활용 분야

  • VR/AR 실감형 콘텐츠 제작
  • 메타버스 아바타 애니메이션
  • 산업교육/리허설/시뮬레이션

📝 마무리

옵틱 모션캡처는 단순한 애니메이션 기술을 넘어, 가상공간 속 실제감 있는 인터랙션을 구현하는 핵심 기술입니다.
앞으로 Unity, Unreal 기반의 XR 콘텐츠에 더욱 폭넓게 활용될 것으로 예상됩니다.

728x90
728x90

✍️ 작성 배경 및 목적

최근 제조 산업에서 **협동 로봇(Co-bot)**의 도입이 증가함에 따라, 이들의 고장 원인 진단 및 비정상 동작 분석의 중요성이 부각되고 있습니다. 그러나 기존 시스템은 대부분 정적 로그 수집 및 단편적인 고장 알람에 의존하고 있어 신속하고 정확한 원인 파악에 어려움이 있었습니다.
본 연구는 이러한 문제점을 해결하기 위해 디지털 트윈(Digital Twin) 기반의 실시간 모니터링 및 분석 시스템을 구축하고, 고장 발생 시 즉각적으로 결합 원인을 추론할 수 있는 프레임워크를 제안합니다.


📌 핵심 연구 내용 요약

  1. 디지털 트윈 기반 구조 설계
    • 센서 데이터를 기반으로 협동 로봇의 실시간 동작을 가상공간에서 재현
    • 가상 모델과 실제 동작 비교를 통해 이상 여부 및 원인 판단
  2. 고장 진단 로직 및 결합 분석 알고리즘
    • 동작 상태, 조인트 정보, PID 제어 입력, 경로 데이터 등 다차원 요소 분석
    • 시간 기반 고장 이력 + 조건 매칭 기법으로 원인 유추
  3. IoT 통합 환경 구현
    • 센서, 제어기기, 로봇 암의 통합 데이터 연동
    • 시리얼 통신 및 MQTT 등 IoT 인터페이스 적용
  4. 실험 적용 사례
    • 가상 시뮬레이션 및 실제 협동 로봇 동작 비교 실험 수행
    • 시각화 툴(Unity 또는 WebGL 기반)로 실시간 조작 및 로그 분석 가능


논문 링크:
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003068220

 

디지털 트윈 기술로 협동 로봇의 고장 또는 결합 원인을 효율적으로 파악하는 시스템에 대한 연

본 논문에서는 4차 산업혁명 이후로 제조 현장에서 사람과 로봇이 공존하는 시대가 되면서 산업현장에서 협동 로봇을 사용하는 사례가 증가하였다. 이에 따라서 생기는 문제점으로는 원인 파악

www.kci.go.kr

 

 


🎯 이 논문을 쓰게 된 이유

  • 실제 제조 현장에서 고장이 반복 발생함에도 불구하고 원인 분석이 어렵고 비효율적이라는 산업계 피드백을 기반으로,
  • 기존 로깅 방식이나 정적 제어 로그만으로는 협동 로봇의 물리적 고장, 알고리즘 오류, 센서 불일치 등을 파악하기 어렵다는 문제의식을 가지고 시작되었습니다.

🧩 활용 기대 효과

  • 설비 유지보수 비용 감소
  • 고장 추적 속도 향상
  • 제조 라인 생산성 향상
  • AI 기반 고장 예지 보완 가능
728x90
728x90

**디지털 트윈(Digital Twin)**이란, 

현실 세계의 사물·시스템을 가상공간에 실시간으로 복제하여 시뮬레이션하고 예측할 수 있는 기술

 

산업현장의 센서 데이터를 실시간 수집하여 Unity 등의 3D 엔진으로 시각화하고, IoT와 연동하여 예지보전, 원격제어, 공정 최적화 등을 실현

🔍 디지털 트윈의 정의

  • 정의: 물리적 객체(설비, 기계, 공정)의 디지털 복제본(3d 모델)
  • 구성 요소
    • 물리 시스템: 공장, 설비, 장비
    • 디지털 모델: Unity, Unreal 등으로 구현된 3D 환경
    • 연결 인터페이스: IoT 센서, Arduino, PLC, OPC-UA 등
    • 양방향 통신: 실제 장비와 가상의 트윈 간 상태 동기화

 

🧠 디지털 트윈 기술 구성도


아두이노 + 가상 모터 제어

https://www.youtube.com/watch?v=ZELoWEx5lM0&list=PLRynT3Cy0vZci5GoPZL7z5-obndSOOxJi

 

💡 주요 특성

  • 실시간 데이터 통합 (온도, 습도, 압력, 속도 등)
  • 고급 시뮬레이션 + 예측 기능 내장
  • 분석 및 유지보수 자동화

🌍 실제 활용 분야

  • 스마트팩토리: 설비 상태 실시간 점검, 예지보수
  • 항만/물류: 위치 기반 자산 추적 및 경로 최적화
  • 스마트시티: 세종, 인천, 전주 디지털 국토 구현
  • 조선/플랜트: 포스코, 현대중공업, 대우조선 등에서 도입

스마트팜 + iot 센서 연
https://www.youtube.com/watch?v=q_rj3KDXCOY

 

 

 

 

728x90
728x90

✅ 개요

Unity와 Arduino를 시리얼 통신(Serial)을 통해 연동하여 로봇 팔을 실시간으로 제어하는 방법을 다룹니다.
디지털 트윈 관점에서 Unity는 가상 공간의 인터페이스를 제공하고, Arduino는 실제 하드웨어의 동작을 제어합니다.

🧩 사용 구성요소

구성 설명
Arduino UNO/Nano 로봇 팔의 서보모터 제어
로봇 팔(Servo Motor 1~6축) 그립, 관절, 어깨, 회전축 등 포함
Unity (C#) 사용자 조작 UI, 가상 조종
시리얼 통신 (USB) COM 포트 기반 데이터 송수신
PC ↔ Arduino 연결 USB 케이블로 통신

🧠 이론: 시리얼 통신 기반 로봇 제어 원리

  • Serial.write() / Serial.read() 사용
  • Unity → Arduino : 제어 명령 전송 ("M1:90,M2:45" 등)
  • Arduino → Unity : 센서 피드백 또는 상태 전송 가능

예: "M1" = Motor1에 90도 회전 명령

🌀 PWM (Pulse Width Modulation)이란?

**PWM(Pulse Width Modulation)**은 전압의 평균값을 조절하는 방식으로, 디지털 신호로 아날로그 제어 효과를 구현할 수 있습니다. 서보모터 제어에 핵심적인 기술입니다.

  • 마이크로컨트롤러(예: Arduino)는 **HIGH(5V)와 LOW(0V)**의 펄스 신호를 빠르게 반복해서 전송
  • 이 펄스의 **폭(Width)**을 조절해 모터의 각도를 제어함

📐 서보모터와 PWM의 관계

서보모터는 일반적으로 **50Hz 주기(20ms)**를 기준으로 신호를 받고,
펄스의 폭(High 상태의 시간)을 통해 **회전 각도(0~180도)**를 결정합니다.

펄스 폭 서보모터 각도
1ms 0도
1.5ms 90도 (중립)
2ms 180도

https://www.youtube.com/shorts/nPPi-kBciaQ

🔍 디지털 트윈 적용 포인트

항목 설명
실시간 제어 Unity에서 UI 슬라이더로 모터 각도 조절
가상-현실 동기화 가상 로봇과 실제 로봇이 동일하게 움직임
유지보수 실제 하드웨어 문제를 Unity로 시뮬레이션
728x90
728x90

🏷️ AR의 4가지 대표적 형태

1. Marker Based AR

  • QR/이미지 등 마커를 카메라로 인식
  • 마커 위치에 3D 오브젝트, 텍스트 오버레이
  • 대표 사례: 교과서 이미지/카드에서 3D 동물 튀어나오기
    https://www.youtube.com/watch?v=FqsEmY3OiIM

 

2. Markerless AR

 

3. Projection Based AR

4. Superimposition AR

 


📈 비교 표/도표

 
구분 기술 방식 주요 적용 예
Markerless GPS, 센서 포켓몬GO, 지도 AR
Projection Based 프로젝터, 라이다 산업용 작업 보조, 쇼룸
Superimposition 객체 대체 IKEA Place, 뷰티 앱
Marker Based 마커(이미지/QR) 교재 AR, 박물관 안내

🎯 실전 개발 꿀팁

  • AR Foundation: 크로스플랫폼(iOS/Android) 지원, Unity 최신 표준
  • AR Core/AR Kit: 각 OS별 네이티브 AR 라이브러리
  • 이미지/마커 등록 시 해상도, 조명, 각도 영향 크니 테스트 필수

📚 정리/다음편 안내

AR은 이처럼 다양한 형태와 기술로 발전 중입니다.
3편에서는 산업별(게임, 교육, 의료, 제조 등) AR 적용사례와 미래 트렌드를 집중 분석합니다!

728x90
728x90

📌 AR(증강현실) 기본 개념

  • 현실 세계에 가상 정보를 실시간으로 합성해 실제처럼 보여주는 기술입니다.
    예) 카메라를 통해 실제 환경 위에 3D 객체/텍스트가 합성되어 보임.

https://www.youtube.com/watch?v=pNLN-wnLOQQ

 

🕰️ AR의 역사

  1. 1901년 – 최초의 AR 개념 등장
    • 라이먼 프랭크 바움의 소설 ‘The Master Key’
      → 안경을 쓰면 사람 머리 위에 성격이 보이는 설정
  2. 1968년 – 첫 AR 기기 ‘다모클래스의 검’
    • 미국 이반 서덜랜드, 세계 최초의 HMD(Head Mounted Display) 개발
    • 반투명 디스플레이로 현실 위에 그래픽 합성
  3. 1990년대 – 산업 분야 AR 적용
    • 보잉사, 항공기 배선 공정에 AR 시각화 활용
    • 토론토대 스티브 맨, 웨어러블 AR 디바이스 연구
  4. 2000년대 – 대중화의 서막
    • 2009년 아이폰 3G/3GS, GPS/AR앱 보급 시작
    • 2012년 구글 글래스(최초 상용 AR 안경)
  5. 2016년 – AR 대중화 ‘포켓몬GO’
    • 모바일 기반 AR게임으로 세계적 신드롬
  6. 2020년대 – 실생활·산업 융합, XR 확장
    • 의료, 제조, 교육, 관광 등 다양한 분야로 급속 확산

🧑‍💻 AR의 주요 이론/기술적 원리

  • 실시간 센서 데이터 처리 (카메라, GPS, 자이로, 가속도계 등)
  • 3D 그래픽 합성 (Unity, Unreal 등 실시간 렌더링 엔진)
  • 컴퓨터 비전/인식 기술 (마커, 이미지, 얼굴·객체 인식 등)
  • 네트워크 데이터 연동 (클라우드, IoT 센서 등과 실시간 연계)

다음 편: AR 기술 종류/원리 – Marker, Markerless, Projection 등 비교

728x90
728x90

🔹 2023 하노버 산업 박람회: 디지털 트윈과 스마트팩토리 혁신

세계 최대 산업 전시회 중 하나인 **하노버 메세(HANNOVER MESSE)**에서는 디지털 트윈, 산업용 로봇, XR 기술, UI/UX 혁신 등이 주요 화두였습니다. 특히 넓은 가상 공간을 활용한 XR 플랫폼, 로봇 디지털 트윈 시스템, 포인트 클라우드 기반 로봇 제어 기술 등이 주목을 받았습니다. 이번 박람회에서 주목할 만한 핵심 기술들을 정리해 보겠습니다.


1️⃣ XR 기반 스마트 산업 플랫폼

📌 주요 특징:

  • 가상 공간 확장: 3D 스캔을 활용한 실제 공간 기반 XR 플랫폼
  • 외부 디바이스와의 상호작용: 로봇 및 하드웨어 연동 가능
  • 네트워크 확장: 다중 사용자 동시 접속 지원 (강의, 교육 등 활용)
  • 혼합 현실(MR) 도입: 4D 안경, VR 기기, 크로마키 기술 활용

📊 활용 사례:
XR을 활용한 스마트팩토리 교육 및 시뮬레이션
산업용 로봇과의 연동으로 공정 최적화
태블릿을 통한 원격 조종 및 협업 기능 강화


2️⃣ 디지털 트윈과 로봇 기술

📌 주요 특징:

  • 로봇 디지털 트윈 시스템 확대: 산업용 로봇의 가상 모델링 및 제어 가능
  • 포인트 클라우드 기술 활용: 로봇의 물체 감지 및 경로 최적화
  • 비전 기술 기반 로봇 속도 제어: 손 감지 및 물체 인식을 통한 자동화 공정

📊 활용 사례:
로봇 디지털 트윈을 활용한 제조 공정 최적화
AI 및 IoT 기반 실시간 데이터 모니터링 적용
비전 인식 기술을 활용한 자동화 시스템 강화


3️⃣ UI/UX 혁신과 3D 모델링

📌 주요 특징:

  • 3D 모델링 기반 UI/UX 설계
  • 직관적인 인터페이스를 통한 산업 자동화 시스템 조작

📊 활용 사례:
디지털 트윈 기반 공정 관리 시스템의 시각적 인터페이스 개선
UI/UX를 최적화하여 스마트팩토리 운영 효율화
3D 인터페이스를 통한 직관적인 로봇 및 장비 제어

 

728x90
728x90

🔹 2023 METAVERSE 전시회: 메타버스와 XR 기술의 혁신

올해 열린 **2023 메타버스 전시회(METAVERSE EXPO)**에서는 디지털 트윈, VR·MR 기기, 교육 플랫폼, 웹 메타버스 기술 등이 주목받았습니다. 특히 스마트팩토리 시뮬레이션, XR 기기(Pico, Vive, iPad), 상호작용 기술(슈트, 회전기계, 버넥트) 등이 집중 조명되었습니다. 이번 전시회에서 다룬 주요 기술들을 정리해 보겠습니다.


1️⃣ 디지털 트윈과 스마트팩토리 시뮬레이션

📌 주요 특징:

  • 스마트팩토리 시뮬레이션 구축 (3곳의 스마트팩토리 적용)
  • WEBGL 기반 개발 → 링크를 통한 접속 가능
  • 디지털 트윈을 통한 공장 자동화 및 모니터링 시스템 연동

📊 활용 사례:
Granco의 디지털 트윈 모니터링 시스템
아이오이소프트의 디지털트윈 3D 시각화 플랫폼
스마트팩토리 시뮬레이션을 통한 공정 최적화


2️⃣ 메타버스 기반 교육 플랫폼

📌 주요 특징:

  • Pico VR 기기 기반 다중 접속 & 제어 시스템
  • 재난·환경 교육 콘텐츠 제공 (주로 초등학교 대상 납품)
  • Hololens2처럼 손으로 제어 가능한 인터페이스 제공

📊 활용 사례:
Pico 기반 VR 학습 관리 시스템
웹 기반 XR 학습 콘텐츠 개발
AI 및 데이터 분석을 활용한 교육 시스템 연동


3️⃣ VR·MR 디바이스와 상호작용 기술

📌 주요 특징:

  • Vive XR Elite 기반 MR 시스템
  • Pico 장비의 대중화 & PICO BUSINESS 부스 구성
  • 아이패드를 통한 XR 콘텐츠 제어 가능

📊 활용 사례:
Vive XR을 활용한 몰입형 MR 환경 구현
Pico VR 기기를 통한 상업용 XR 솔루션 확대
웹 기반 XR 기술과의 크로스 플랫폼 연동

728x90
728x90

🔹 2023 스마트공장 및 자동화산업전 (AW 2023)

올해 열린 **AW 2023(스마트공장 및 자동화산업전)**에서는 디지털 트윈, IoT, 증강현실(AR), 혼합현실(MR), PLC 데이터 수집 등이 핵심 기술로 소개되었습니다. 특히 OPC UA를 통한 데이터 수집 및 시각화, 실시간 로봇 제어, 크로스 플랫폼 공유 등 스마트팩토리의 핵심 요소들이 다루어졌습니다. 이번 전시회에서 주목할 만한 기술들을 정리해 보겠습니다.


1️⃣ 디지털 트윈 & PLC 데이터 수집

📌 주요 특징:

  • OPC UA 기반 데이터 수집 및 표현
  • PLC 데이터 1ms 속도 수집 및 분석
  • 유니티(홀로렌즈2) 및 언리얼(VR 콘텐츠) 플랫폼 개발
  • 산업 및 교육 사업 적용 가능성 증가 (인력 2배 증가)


2️⃣ 메타버스 & MR 기반 실시간 로봇 제어

📌 주요 특징:

  • MXSpace를 통한 메타버스 기반 공장 운영
  • MR 기술을 활용한 로봇 실시간 제어
  • 로봇의 각 축 각도 정보와 실시간 연동
  • AR 화면을 PC 및 다른 플랫폼으로 공유 가능 (크로스 플랫폼 개발)

📊 활용 사례:
✅ 스마트공장에서 디지털 트윈+메타버스 기술 활용
MR을 통한 로봇 제어 및 자동화 공정 최적화
AR 기반 플랫폼으로 협업 가능성 증가


3️⃣ UI/UX와 공정 플랫폼 (디지털 트윈)

📌 주요 특징:

  • 디지털 트윈 기술을 활용한 공정 시각화 플랫폼
  • 직관적인 UI/UX 설계로 효율적인 공정 제어
  • 데이터 기반 실시간 분석 및 자동화 적용

📊 활용 사례:
스마트공장 내 생산 공정 모니터링
AR, VR을 접목한 공정 설계 및 시뮬레이션
디지털 트윈 기반의 원격 공정 관리 시스템 구축

 


4️⃣ IoT & 구조 해석

📌 주요 특징:

  • AR + 구조 해석을 통한 산업 설계 최적화 (지멘스 적용 사례)
  • IoT 기반 노드레드 (Node-RED)를 통한 데이터 흐름 관리
  • 디지털 트윈과 IoT의 결합으로 스마트팩토리 구현

📊 활용 사례:
제조업에서 IoT를 활용한 공정 자동화
AR을 적용한 구조 해석을 통한 제품 설계 개선
디지털 트윈과 IoT의 융합으로 효율적인 자동화 시스템 구축

728x90

+ Recent posts