https://www.youtube.com/watch?v=UuoNTYZaT7k&list=PLATff1khpIscTMN2KXxagrTkBCwdzOeol&index=2

 

프로젝트는 새로 만들어도 되고 만들때마다 용량이 늘어나므로 기존 프로젝트에 New Scene을 하는걸 추천한다. 3D면 된다.

File>Save를 하면 이름을 물어보는데 난 DebugTest로 했다.

Window>Package Manager에 AR Foundation, ARCore가 잘 설치되어 있어야 한다 기타 빌드 설정도 잘되어 있어야하고 핸드폰도 개발자모드로 되어 있어야하고 연결하고 승인도 해줘야한다. 잡일이 많다.

하이라키 +를 누르거나 우클릭후 AR Session, AR Session Orign을 추가하고 Main Camera는 지워준다.

이제 AR Foundation기능을 테스트 해보자  AR Foundation이 지원하는 기능은 다음과 같은데

특징설명

 

세션 대상 플랫폼에서 AR을 활성화, 비활성화하고 구성합니다.
장치 추적 실제 공간에서 장치의 위치와 회전을 추적합니다.
카메라 장치 카메라에서 이미지를 렌더링하고 조명 추정을 수행합니다.
비행기 감지 평평한 표면을 감지하고 추적합니다.
이미지 추적 2D 이미지를 감지하고 추적합니다.
객체 추적 3D 객체를 감지하고 추적합니다.
얼굴 추적 인간의 얼굴을 감지하고 추적합니다.
신체 추적 인체를 감지하고 추적합니다.
포인트 클라우드 특징점을 감지하고 추적합니다.
레이캐스트 추적된 항목에 광선을 비춥니다.
앵커 공간상의 임의의 지점을 추적합니다.
메싱 환경의 메시를 생성합니다.
환경 프로브 환경의 큐브맵을 생성합니다.
폐색 AR 콘텐츠를 물리적 객체로 가리고 인간 세분화를 수행합니다.
참가자들 공유된 AR 세션에서 다른 기기를 추적합니다.

일단 하이라키위를 우클릭하면 나타나는 것들부터 해보자

AR Default Point Cloud를 추가하자

AR Session Origin을 클릭후 Inspection뷰에서 Add Component를 클릭하고 AR Point라고 검색한후 AR Point Manager를 추가하자. 그럼 Point Cloud Prefab이라는 Item이 생기고 None에 프리팹을 연결해줘야한다..

프로젝트뷰에 Prefab폴더를 만들고 AR Default Point Cloud를 끌어다 놓으면 Prefab이 생성된다.  하이라키의 있는 것들은 GameObject라는 객체인데 이것들을 끌어다 프로젝트에 놓으면 Prefab으로 바뀐다. Prefab은 Class라고 생각하면 된다. 객체에서 클래스를 만드어 주는거다. 보통은 클래스를 만들고 클래스이용 객체를 만드는 것의 반대이다. 객체지향 어려워요. 참 프리팹을 만든후에는 AR Default Point Cloud는 지워주자. 끌어다 놓을때는 이름을 잘보자 프로젝트뷰가 아이콘아 아니라 리스트로 나오는건 우측 삼점을 누르고 One Columb Layout을 선택하면 된다.

이제 빌드를 해보자 File>BuildSetting를 눌러서 Add Open Scenes를 눌러 현재 씬을 추가해줘야한다.

좌측아래 PlayerSettings(Project Setting에서도 접근가능)를 눌 앱이름을 설정하자.

 

오른쪽아래 빌드앤런을 누르면 파일명을 물어보면 build라는 폴더를 만들고 들어가서 적당히 이름만든다. 클

세이브할꺼냐고 물어보면 Save

이때 부터 핸드폰을 잘봐라 대기화면이면 풀어주자. 프로그레스바에서 device에 copy한다는 메세지가 나와야 한다. 물론 빌드폴더에서 apk를 핸드폰으로 카피해서 깔아도 되지만 이게 편하다.

핸드폰 화면을 대기화면에서 풀고 잘 보면 아래 팝업이 뜬다. 당황하지 말고 확인 위에 세부정보 더보기를 누르고 다시 확인위에 무시하고 설치하기 누른다.

다음 카메라사용 승인해주면 드디어 앱이 뜬다. 포인트가 안 나온다면 좀 기다려 보고 앵글을 움직여 보면 나온다. 포인트는 오브젝트의 엣지부분을 찾는 기능 같다.

 

다음은 하이라키 뷰위를 우클릭후 AR Default Plane을 추가 하고

프리팹 폴더에 끌어다 프리팹을 만들자. 그럼 파란색으로 변하고

AR Session Origine에 AR Plane Manager 컴포넌트를 추가하고

AR Default Plane 프리팹을 AR Plane Manager컴포넌트의 Prefab 참조에 연결해준다

Detection Mode는 원하는 면을 선택할수 있는데 현재는 그냥 두자

 

빌드해주자 잘보면 방법이 똑같다 AR Default XXXX를 추가하고 프리팹을 만들고 AR Session Origne에 AR XXXX Manager를 컴포넌트에 추가하고 프리팹을 연결해준다.

빌드해보면 Point와 Plane인식을 할것이다. Plane인식은 약간 시간이 걸리는것 같다. 그리고 정확하지 않은것 같다. 아이폰은 라이더가 내장되어 있어 정확안듯 하

마지막으로 하이라키에 우클릭후 XR>AR Default Face를 추가하고 프리팹폴더에 끌어다 프리팹만들고 지워주자

AR Session Origine에 AR Face Management 컴포넌트를 추가하고 AR Default Face Prefabs를 연결해준다.

Face Detect를 하기 위해 모델이 있다면야 후방으로 해도 되지만 자신으로 테스트하기 위해 전방카메라를 선택해보자. AR Session Orign>AR Camera를 선택해서 Inspector View아래 Face Direction이 있는데 World->User로 바꾸준다. World가 후방이다.

Face Tracking에서는 Point, Plane Manager가 필요 없다고 해서 지우라는데 난 귀찮아서 안지웠는데 잘되었다  지우는것 대신 불필요한 부분을 비활성화 하는 방법도 있을것 같다. 컴포넌트 이름 왼쪽을 언체크하면 된다.

실행화면 내 눈 코 입을 만들어주고 표정까지 트래킹 해준다. 얼굴을 돌려보면 나름 3D로 모델을 만들어서 맵핑해준다. 유튜브는 이빨과 눈동자도 보이는데  버전에 따라 좀 다른듯 

오른쪽이 유튜브 강좌 화면 눈동자와 이빨이 보임.

 

'AR > AR Foundation' 카테고리의 다른 글

AR 개발환경구축하기  (0) 2024.07.02
소개  (0) 2024.07.02
iOS / Unity 2022.3.5f1 + AR FOUNDATION / ARKit  (0) 2024.06.30
유니티 Unity AR Foundation  (0) 2024.06.30

https://www.youtube.com/watch?v=yLH9Gj1cO6U&list=PLATff1khpIscTMN2KXxagrTkBCwdzOeol&index=3

 

일단 유니티 사이트에서 유니티 허브를 설치

아이디 생성후 로그인후 유니티 에디터를 설치해야함

Archive탭에서 Download archive를 클릭해

21.3.39f1을 설치한다. 강의하시는 선생님이 이버전을 사용해서인데 최신버전을 사용해도 된다.

허브가 자동으로 열린다.

Anidroid Build Support를 체크후 Continue한다 2022가 있는데 2019를 꼭 갈아야하는지는 모르겠다.

비주얼스튜디오도 설치하고

유니티게임개발을 체크해준다.

 

유니티 허브를 열고 프로젝트를 만들자

3D를 선택하고 경로는 한글로만 되어야 한다.

 발드를 위한 설정을 위해 Fie>Buid Settings로 들어간다. windows에서 Android로 바꾸고 Switch Platform

 

windows 메뉴에서 Package Mannage를 열고 AR은 올인원 패키지라 용량이 크므로 개별로 설치하자

밑으로 내려가면  AR Foundation을 선택후 오른쪽 아래 install을 누른다

다음은 구 플래폼을 위해 AR Core를 설치한다. ios라면 ARKit같이 다른걸 해야한다.

Edit>ProjectSettings>왼쪽아래 PlayerSettings를 클릭하고

Quality카테고리에서 안드로이드를 Mediaum으로 체크한다. 

Player카테고리의 OtherSetting Color Space를 Gamma에서 Linear로 변

앱의 이름및 버전을 설정할 수도 있다.

밑의 Auto Graphic API를 해제후 Graphics API창이 나타나는데

모바일에서 지원안하는 vulkan을 -를 눌러 지워준다.

조금더 아래 Multithreaded Rendering을 체크해주자

아래 Minimum API Level을 Android 7.0으로 바꾼다. Nuga 

Scripting Backend를 IL2CPP, API Compatibility Level을 .NET Framework로 변경한다.

ARM64 채크

XR Plug-In Management 카테고리로 이동후  ARCore를 체크해주면 된다.

게임를 Simulator로 변경후 자신의 안드로이드 기종으로 변경한다.

적성에 맞게 윈도우  패널들을 재 배치한다 모바일 개발은 수직방향이라 다음과 같이 배치했다.

설치가 잘되었다면 빌드가 잘되어야 하는데 스마트폰 드라이브를 깔고 스마트폰을 연결해야 하는것 같다.

스마트폰 드라이버는 당연히 자신의 핸드폰 메이커에 맞는걸 메이커 사이트에가서 다운 받아야 한다.

스마트폰 설정 버전에가서 열심히 두들겨 개발자 모드로 진입하고 디버깅허용한후 케이블 연결하면 다른건 할필요 없고 기다리면 디버깅 허용할꺼냐고 물어보면 승인한다.

나중에 빌드하면 인증안된 앱을 깔꺼냐고 물어보는데 이것도 눌러야한다. 이것 안하고 빌드앤런 누르면 마지막에 멈쳐있다. 니 연결을 체크하는 에러 메세지가 난다. 

 

https://blog.naver.com/kal9107/223003398900

 

유니티 엔진 모바일 디버깅하는 방법

#유니티 #모바일 #디버깅 디버깅 환경이 갖춰져야 원활한 개발이 가능하다! 모바일 게임을 만들던 도중 유...

blog.naver.com

 

설정이 잘되어 있다면 하이라키에서 우클릭하면 XR 관련 팝업리스트가 보여야 한다.

이중 AR Session, AR Session Origin은 무조건 추가해야하고 AR Session Origin에 AR Camera가 있기 때문에 하이라키 맨위 Main Camera는 지워준다.

 

'AR > AR Foundation' 카테고리의 다른 글

[유니티 AR] 디버깅을 위한 빌드 테스트  (1) 2024.07.02
소개  (0) 2024.07.02
iOS / Unity 2022.3.5f1 + AR FOUNDATION / ARKit  (0) 2024.06.30
유니티 Unity AR Foundation  (0) 2024.06.30

https://www.youtube.com/watch?v=C5taq2a3_rQ&list=PLATff1khpIscTMN2KXxagrTkBCwdzOeol&index=1

AR Foundation은 유니티에서 AR을 개발시 사용하는 통합워크플로이다.

 

https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@5.1/manual/index.html

 

AR Foundation | AR Foundation | 5.1.5

AR Foundation AR Foundation enables you to create multi-platform augmented reality (AR) apps with Unity. In an AR Foundation project, you choose which AR features to enable by adding the corresponding manager components to your scene. When you build and ru

docs.unity3d.com

 

특징

AR Foundation은 다음 기능을 지원합니다.

특징설명
세션 대상 플랫폼에서 AR을 활성화, 비활성화하고 구성합니다.
장치 추적 실제 공간에서 장치의 위치와 회전을 추적합니다.
카메라 장치 카메라에서 이미지를 렌더링하고 조명 추정을 수행합니다.
비행기 감지 평평한 표면을 감지하고 추적합니다.
이미지 추적 2D 이미지를 감지하고 추적합니다.
객체 추적 3D 객체를 감지하고 추적합니다.
얼굴 추적 인간의 얼굴을 감지하고 추적합니다.
신체 추적 인체를 감지하고 추적합니다.
포인트 클라우드 특징점을 감지하고 추적합니다.
레이캐스트 추적된 항목에 광선을 비춥니다.
앵커 공간상의 임의의 지점을 추적합니다.
메싱 환경의 메시를 생성합니다.
환경 프로브 환경의 큐브맵을 생성합니다.
폐색 AR 콘텐츠를 물리적 객체로 가리고 인간 세분화를 수행합니다.
참가자들 공유된 AR 세션에서 다른 기기를 추적합니다.

 

AR을 개발하기 위해 플랫폼마다  개발킷이 존재하는데 이를 통합했다고 보면  되는데 지원하는 해당기능은 다음과 같다.

Feature ARCore ARKit OpenXR
Session Yes Yes Yes Yes Yes
Device tracking Yes Yes Yes Yes Yes
Camera Yes Yes     Yes
Plane detection Yes Yes Yes Yes Yes
Image tracking Yes Yes Yes    
Object tracking   Yes      
Face tracking Yes Yes      
Body tracking   Yes      
Point clouds Yes Yes      
Raycasts Yes Yes   Yes Yes
Anchors Yes Yes Yes Yes Yes
Meshing   Yes Yes Yes  
Environment probes Yes Yes      
Occlusion Yes Yes      
Participants   Yes    

 

UnityMars를 통해 시뮬레이션도 가능하다고 함. 뭘까?

https://smilejsu.tistory.com/3184#google_vignette

 

iOS / Unity 2022.3.5f1 + AR FOUNDATION / ARKit / 환경설정

What is augmented reality (AR)? 증강현실은 가상현실의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법

smilejsu.tistory.com

 

What is augmented reality (AR)?

  • 증강현실은 가상현실의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법
  • 디지털 정보를 사용자 환경과 실시간으로 통합
  • 완전히 인공적인 환경을 만들어내는 가상현실(VR)과 달리, AR 사용자는 생성된 지각 정보가 그 위에 덧씌워진 실제 환경을 경험하게 됨 

 

안드로이드 :  ARCore

IOS : ARKit

ARCore/ARKit 멀티 플랫폼 개발 :   AR Foundation

 

 

 

 

플랫폼별 기능 지원 이 표를 참조하여 AR Foundation의 어떤 부분이 특정 플랫폼과 관련되어 있는지 이해할 수 있습니다.

 

 

 

Which version should I use?

 

이 저장소의 메인 브랜치는 AR Foundation 6.0을 사용하며 Unity 2023.2 이상과 호환됩니다. 이전 버전의 AR 파운데이션에 대한 샘플 장면에 액세스하려면 아래 표에서 다른 브랜치에 대한 링크를 참조하세요.

 

https://github.com/Unity-Technologies/arfoundation-samples#which-version-should-i-use

 

How to use these samples?

 

Build and run on device

AR 파운데이션 샘플 프로젝트를 장치에 직접 구축할 수 있으며, 이는 처음으로 AR 파운데이션 기능을 사용하는 데 도움이 될 수 있습니다.

 

프로젝트를 만들고 플랫폼을 변경 한다 

 

 

Package Manager를 열고 ar검색

 

 

 

 

먼저 AR Foundation을 설치 해준다 

 

 

 

AR feature set

Unity는 강력한 AR을 제공합니다 풍부하고 매력적인 증강 현실을 만드는 도구 현실 세계와 지능적으로 상호 작용하는 경험. Unity의 AR 기능 세트 헤드마운트 디스플레이부터 모바일까지 증강현실 개발의 출발점을 제공합니다.

https://docs.unity3d.com/2022.3/Documentation/Manual/ARFeature.html

 

Unity - Manual: AR feature set

AR feature set Unity provides powerful ARAugmented Reality More infoSee in Glossary tools to create rich, deeply engaging augmented realityAugmented Reality (AR) uses computer graphics or video composited on top of a live video feed to augment the view and

docs.unity3d.com

 

 

통합 패키지를 설치해주자 

 

 

Project Settings를 열어 알맞는 Provider를 선택 한다 

 

 


하이어라키에 우클릭하고 AR Session과 AR Origin을 생성한다 

 

 

 XROrigin도 생성해주자 

 

 

 

AR Session

AR을 사용하기 위해 필수적으로 필요한 컴포넌트

라이프사이클관리, 구성옵션제어, 세션 실행 등을 관리

씬에서 1개만 생성해야 하며 여러 개 일경우 다른세션과 충돌 할 수 있음

 

XR Origin

XR Origin 구성 요소는 일반적으로 XR Origin의 기본 개체에 연결되며 이동을 통해 조작될 GameObject를 저장합니다.

카메라 오프셋에도 사용됩니다.

자식으로 카메라가 있으며 사용자 입장에서 Origin의 위치가 실제 모바일 카메라의 위치 입니다.

 

더보기
더보기

AR Session은 AR 앱에서의 생명주기를 담당, 앱이 시작하면서부터 끝날 때까지의 라이프사이클을 관리
AR Session Origin은 AR 상에서 중심이 되는 역할

AR 세상에서의 원점으로 AR Session Origin의 자식 오브젝트인 AR Camera로 비춰지고 있는 화면이 사용자가 가지고 있는 AR 디바이스에서 비추는 화면이랑 똑같다고 보시면 됨 
AR Default Point Cloud는 카메라를 통해 받아지는 영상에서 특징점들을 노란색 포인트로 표시
AR Default Plane은 Point Cloud에서 얻은 특징점들을 기반으로 평면을 찾는 컴포넌트 
AR Default Face는 얼굴 인식에서 사용되는 컴포넌트

 

 

MainCamera 오브젝트를 제거

이미 XR Origin/Camera Offset/MainCamera의 태그가 MainCamera입니다.

 

 

 

AR Camera Manager

XRCameraSubsystem의 수명 주기를 관리 

카메라 텍스처 및 조명 추정 정보를 사용할 수 있도록 하려면 장면의 카메라에 이들 중 하나를 추가 해야 합니다.

 

https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@5.1/api/UnityEngine.XR.ARFoundation.ARCameraManager.html

 

 

ARCameraBackground

카메라에 이 구성 요소를 추가하여 컬러 카메라의 텍스처를 배경에 복사합니다.

If you are using the Universal Render Pipeline (version 7.0.0 or later), you must also add the ARBackgroundRendererFeature to the list of render features for the scriptable renderer.

 

https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@5.1/api/UnityEngine.XR.ARFoundation.ARCameraBackground.html

 

 

 

TrackedPoseDriver

TrackedPoseDriver 구성 요소는 추적된 장치의 현재 포즈 값을 에 적용합니다.

TrackedPoseDriverXR HMD, 컨트롤러 및 리모컨을 포함한 여러 유형의 장치를 추적할 수 있습니다.

 

https://docs.unity3d.com/Packages/com.unity.inputsystem@1.6/api/UnityEngine.InputSystem.XR.TrackedPoseDriver.html

 

 

 

 

그냥 빌드 시도 하면 이렇게 됨

 

 

BuildFailedException: ARKit requires a Camera Usage Description (Player Settings > iOS > Other Settings > Camera Usage Description)

 

 

 

빌드후 실행해보기 

 

 

 

 

AR 기기가 감지한 평면(즉, 평평한 표면)을 나타냅니다.

 

 

 

 

 

카메라를 통해 얻어지는 정보를 분석해 특징점을 추려 평면으로 인식합니다. 감지된 포인트 클라우드를 나타냅니다. 이들은 특징점이라고도 합니다.

 

 

 

 

 

AR 기기에서 감지한 얼굴을 나타냅니다 카메라를 통해 얻어지는 여상 정보를 분석해 얼굴 정보를 바탕으로 Face Mesh 데이터를 생성해 얼굴 위치에 다양한 오브젝트를 출력 하거나 눈동자 인식등의 콘텐츠 제작에 활용할수 있습니다. 이때 Face Mesh 정보를 가시화 해서 확인 하는것인 ARFace입니다.

 

 

 

 

 

 

AR Default Point Cloud

영상정보를 분석해 특징점을 노란색 파티클로 화면에 출력 해주는 오브젝트

 

 

 

 

 

 

AR Point Cloud Manager

 

 

XR Origin 오브젝트에 AR Point Cloud Manager컴포넌트를 추가 합니다.

ARTrackedObjects의 관리자입니다. XRPointCloudSubsystem을 사용하여 물리적 환경에서 포인트 클라우드 데이터를 인식하고 추적합니다.

 

 

 

 

AR Default Point Cloud 를 프리팹으로 만들고 할당 

 

 

 

 

빌드후 실행 해본다 

 

 

 

AR Default Plane

영상정보를 분석해 평면 정보를 노란색 면과 검은색 선의 Mesh로 화면에 출력 하는 오브젝트 입니다.

 

 

프리팹으로 만들기 

 

 

 

XROrigin 게임 오브젝트를 선택 하고 AR Plane Manager컴포넌트를 부착후 Plane Prefab에 할당 하고 Detect Mode를 Horizontal로 변경 한다 

 

 

빌드후 결과를 확인 하자 

출처: https://smilejsu.tistory.com/3184 [{ 일등하이 :Unity3D }:티스토리]

'AR > AR Foundation' 카테고리의 다른 글

[유니티 AR] 디버깅을 위한 빌드 테스트  (1) 2024.07.02
AR 개발환경구축하기  (0) 2024.07.02
소개  (0) 2024.07.02
유니티 Unity AR Foundation  (0) 2024.06.30

https://www.soonsoon.io/unity-ar-foundation-basic-tutorial/

 

Unity AR Foundation Tutorials 무료 강좌 - soonsoon blog

애플 비전 프로가 유니티를 활용해서 개발 환경을 구축 할 수 있게 한다고 한다. 따라서 2021년에 만들어뒀던 Unity AR Foundation 기초 강좌를 공유 해보려 한다.

www.soonsoon.io

 

 

 

https://learnandcreate.tistory.com/1520

 

유니티에서 증강현실(AR) 프로젝트 시작하기2(point cloud manager, plane manager)

유니티에서 증강현실(AR) 프로젝트 시작하기2(point cloud manager, plane manager) 포인트 클라우드 관리자, 평면 관리자(point cloud manager, plane manager) 추가하기 1)씬에 AR Session 게임 오브젝트를 생성합니다.

learnandcreate.tistory.com

 

 

 

유니티에서 증강현실(AR) 프로젝트 시작하기2(point cloud manager, plane manager) 

포인트 클라우드 관리자, 평면 관리자(point cloud manager, plane manager) 추가하기

1)씬에 AR Session 게임 오브젝트를 생성합니다.

 

2)AR Session는 AR Session , AR input manager 컴포넌트를 가지는 게임오브젝트입니다.

 

3)AR Session Origin 게임 오브젝트를 생성합니다.

 

4)AR Session Origin는 AR Session Origin 컴포넌트를 가지며 카메라로 AR Camera를 참조합니다.

 

5)AR Session Origin 하위에서(자식 오브젝트) AR Camera를 확인할수있습니다.

 

6)AR Camera는 AR Pose Driver, AR Camera Manager, AR Camera Background 컴포넌트를 가지고있습니다.

 

7)씬에서 불필요한 카메라를 제거합니다.

 

8)AR Camera를 메인 카메라로 설정합니다.

 

9)씬에 AR Default Point Cloud 게임오브젝트를 생성합니다.

 

10)AR session origin에 AR Point Cloud Manager 컴포넌트를 추가합니다.

point cloud manager(포인트 클라우드 관리자)는 특징 포인트(feature point)로 이루어진 포인트 클라우드를 생성합니다.특징 포인트는 장치가 월드에서 위치를 결정하는 데 사용하는 포인트 클라우드의 특정한 지점입니다.

 

11)AR Point Cloud Manager 컴포넌트의 point cloud prefab에 씬에 생성한 AR default point cloud게임오브젝트를 참조합니다.

 

12)씬에 AR Default Plane 게임오브젝트를 생성합니다.

 

13)AR session origin에 AR Plane Manager 컴포넌트를 추가합니다.

(plane manager)평면 관리자는 환경에서 감지된 각 평면(plane)에 대하여 게임 오브젝트를 생성합니다. 바닥, 테이블, 벽과 같은 수평, 수직적으로 평평한 표면을 감지할수있습니다.

 

14)AR Plane Manager의 plane prefab에 씬에 생성한 AR default plane 게임오브젝트를 참조합니다.

 

'AR > AR Foundation' 카테고리의 다른 글

[유니티 AR] 디버깅을 위한 빌드 테스트  (1) 2024.07.02
AR 개발환경구축하기  (0) 2024.07.02
소개  (0) 2024.07.02
iOS / Unity 2022.3.5f1 + AR FOUNDATION / ARKit  (0) 2024.06.30

+ Recent posts