ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인텔 모빌어린이 (Intel Mobileye) CES 2020 (자율주행 / ADAS / 카메라 / 컴퓨터 비전 알고리즘 / VIDAR / 로보택시 / REM / EyeQ 칩) 좋구만
    카테고리 없음 2020. 2. 15. 07:19

    >


    ​ ​ ​ 하나. 모빌 아기(Mobileye)​(하나)중소 기업 개요 하나 999년에 설립된 이스라엘에서 설립된 비전(Vision)기반 지능형 운전자 보조 시스템(ADAS)서비스 제공 업체 ​-20개 4년 뉴욕 증권 거래소에 상장. 이스라엘 중소 기업이 추진한 중소 기업 공개(IPO)사례 시간 울지만 가장 큰 성공을 거두고 유명하다. 20하나 7년 인텔이 약 하나 7조 6,000억원에 인수. 모빌 아기의 인수는 인텔의 역사를 통해서 가장 성공적인 선택 중에 꼽힌 것 ​-핵심 기술인 지능형 ADAS는 전방 충돌 경고(FCW), 보행자 충돌 경고(PCW), 차선 이탈 경고(LDW), 지능형 전조등 제어(IHC), 속도 제한 표지(SLI)등을 지원 ​ 창업 초기 BMW, GM, 볼보 등 완성 차 업체에 주문자 상표 부착 방식(OEM)에서 제품을 공급했지만 2007년부터는 애프터 마켓에도 진출하고 독자 브랜드 이제부터라고 구축 ​-과거 테슬라도 한 모델 S에 천장률 주행 모든 것의 오토 파일럿(Autopilot)기능을 실현하는, 모빌 애기의 비전의 가운데 컴퓨팅 칩'EyeQ 3'을 채용했지만 오토 파일럿에 문제가 발생하고 운전자 사만 문 제이 발생.이 뭉지에우에 현재 파트의 집 관계 종료 ​-20하나 9년 ADAS시장의 큰 성장에 힘입어 매출액이 하나 0억달러에 육박했고 최근 20하나 9년 3분기 매출은 전년 동기 대비 20%이상 성장 ​


    >


    <출처:TECH M>​ ​ ​(2)의 주요 서비스-FCW(Forward Collision Warning):전방 차량 충돌 경보 ​-HWM&Warning(Headway Monitoring&Warning):차간 거리의 모니터링과 경보 ​-PCW(Pedestrian Collision Warning):보행자 추돌 경보 ​-LDW(Lane Departure Warning):차선 이탈 경보 ​-SLI(Speed Limit Indication):제한 속도 표지판 인식과 속도의 국물이 너무 경보 ​-REM(Road Experience Management):EyeQ 4 chip, GPS, G-Sensor통신 모듈이 내장된 Mobileye 8 Connect에 의해서 고화질지도를 생성. 밑으로 더 자세한 설명 ​ ​ ​ ​ 2. 인텔 모빌 아기 CES 2020​-모빌 이야기는 CES 2020에서 최근까지 누적 5,400만개 이상 출하된 '에키큐(EyeQ)'칩을 포함하고 인텔에서 가장 빠르게 성장하는 비즈니스인 자율 주행 기술에 대해서 발표 ​-모빌 이야기는 현재 레이더와 라임니다만 탑재한 비법과 단지 카메라만을 탑재한 2개의 서로 다른 비법으로 자율 주행 기술을 개발하고 ​ 이 날, 인텔은 카메라 센서만 장착한 자율 주행 자동차가 도로를 주행하는 모습이 전부 sound는 무표은지프 23분짜리 동영상을 공개. 영상에서 차량은 복잡한 교차로, 보행자나 배달차량 등이 밀집한 환경 등에서도 운행에 성공 기타 자율주행을 위한 컴퓨터 비전, 매핑, 운전자 보조시스템(ADAS), MaaS(Mobility-as-a-Service)에 관한 기술과 개념에 대한 설명-실적, 또 급속하게 성장하고 있어 향후 데이터 수익화나 로보택시 등으로 사업을 확대할 것을 발표했다.


    >


    <출처:Mobileye>​ ​ ​ ​ 3. 카메라 센서 비전 인식 ​-모빌 아이는 자율 주행에 두개의 각각 다른 방식으로 접근. 하자신은 카메라만, 다른 하자신은 레이더와 라임니다만 사용해 비전 인식-특히 자율 주행을 위한 카메라 트렌드는 앞쪽에만 설치하는 것부터 사방을 감싸듯 편안하다. 한편, 비용은 불과 수백달러에 불과 ​-카메라만 사용하는 방식의 자율 주행 차량이 센싱 실수가 발생할 확률은 하나 0,000시 테러단 한가지 사건이 목표. 이는 매일 2가끔 운전합니다라고 말했을 때 하나 0년에 한번씩 ​-최종적으로는 라이 무니르와 레이더만 사용하는 방식과 결합하고 하나, 000만 때 테러단 한가지 제안의 오류 확률을 달성할 것으로 기대 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 4. 컴퓨터 비전(Computer Vision)​(하나)카테고리별 분류밖에)로드 사용자(Road Users):자동차, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 대상을 인식. 그들은 정의함으로써 매우 다양 ​ 2)로드 지오 메트리(Road Geometry):차로만 아니라 도로 표면의 종류 및 상태, 각도, 노프오 전 각 차선의 의미 등을 이해 ​ 3)로드 바운더리(Road Boundaries):커브, 카도우레 하나 등 주행 가능한 도로인지 경계를 구분 ​ 4)로드 시맨틱(Road Semantics):도로상 나쁘지 않고 주변의 신호등이나 표지 또는 보행자의 움직임, 차량의 캄파 구의 등을 인식하고 그 의미가 어떤 인지 이해. 특히 수신호 같은 보행자의 제스처에 따라 운행이 가능한지 멈춰야 하는지 표결이 되므로 이러한 움직임의 의미를 이해하는 것은 중요함.


    >


    <출처:Mobileye>​ ​ ​(2)기술 구성이다)Detection(감지):픽셀 단위로 차량 및 사물의 외형(Appearance), 원근감이 나쁘지 않아 움직임 등을 통해서 3차원과 같은 깊이(Geometry)확인 ​ 2)Measurements(측정):차량을 정확히 제어하기 위해서는 모든 것이 3차원에 위치하고 있어야 하기 때문에 카메라를 통해서 입력을 받은 2D의 깃발을 3D로 변환 ​ 3)Internal Redundancy:위에서 이야기한 4개의 카테고리 내에서는 복수의 컴퓨터 비전 엔진이 독립적으로 실행된다. 다시 이야기하여 문제 하나 없이 크고 깊은 알고리즘을 사용하는 것이 아니라 서로 영향을 주지 않는 각기 다른 알고리즘을 여러 번 사용하여 감지 및 측정 기능을 구현


    >


    <출처:Mobileye>​ ​ ​ ​ 5. 컴퓨터 비전 알고리즘의 종류 ​(1)감지 알고리즘, 예를 들면 이하의 이미지의 흰색 버스를 인식하기 때문에 즉 로드 사용자 범주에서 감지 기능을 위한 6개의 각기 다른 엔진(알고리즘)을 사용 ​ 1)3DVD:전통적인 패턴 인식 비법. 먼저 전체 이미지를 스캔하고, 그 안에서 인식이 필요한 대상을 찾아 박스화하고, 외형(appearance)을 확인한 후 신경망을 통해 학습. 차의 문이 열리고 있을 때는 그 안에서 갑자기 사람이 밖에 자신 올 수 있기 때문에 차문이 열리고 있는 상태, 본인의 휠체어, 유모차 등 특별한 경우도 인식할 수 있도록 학습 ​ 2)Full Image Detection: 그렇게 버스가 붙어 있어 크게 보이면 같은 외형에서도 박스화하기 어렵기 때문에 다른 방식으로 접근하는 알고리즘 ​ 3)Top View FS(Free Space):이미지 녹색 공간은 운전 가능한 공간인 free space에서 운전 불가능한 공간과 구분 ​ 4)VIDAR:라이 진드기, 아닌 카메라를 사용한 알고리즘. 사람은 삼각 측량을 통해서 눈에 들어간 2차원 이미지를 3차원에서 느끼는 것처럼 차량을 둘러싼 12대의 카메라(원거리용 8대, 주차용 4대)도 삼각 측량을 구현하고 3D이미지를 발생(테슬라와 같은 방식). 그리고, 여기서 얻은 화상 데이터를 라이입니다. 프로세싱 알고리즘에 주입하여 인공지능 신경망 학습 테슬라비전 인식 비법 참고


    ​ ​ 5)Scene Segmentation:보행자, 자동차 도로 쟈싱무 등 각 대상을 같은 부류별로 구분 ​ 6)Wheels​


    >


    <출처:Mobileye>​ ​ ​(2)측정 알고리즘 하나)Map World Model:REM기술을 통해서 HD맵 발생 ​ 2)Visual Road Model:HD맵을 활용하여 도로의 형태, 자신의 깊이, 각도, 고저 등을 구분하고 3차원 정보를 얻는 알고리즘 ​ 3)Range Net:사물의 외형을 통해서 길이 자신의 폭과 같은 범위 측정 ​ 4)VIDAR​ ​ ​-이런 알고리즘을 통해서 온 결과치를 최종적으로 전체 통합하고 자율 주행의 의사 자결 ​-예를 들어 자율 주행 차량이 판단하므로, 그 차가 떠받치고 있는 그이츄이 주차된 차처럼 장애물로 여기고 이를 피하고 안 갈 것인지 아니면 교통 체증이 보통 기다리며 천천히 가야 한다 것인지 아닌지 판단하는 것은 매우 헷갈리는 문제. 이를 해결하기 위해 단순히 전술한 것뿐만 아니라 다른 알고리즘이 가져온 다양한 정보를 종합하여 어떤 귀추인지를 판단


    >


    <출처:Mobileye>​ ​ ​ ​ 6. 로봇 택시&에쟈일(Agile)​-모빌의 아이의 주장은 자율 주행의 활용 사례는 가장 가장 먼저 로보 택시이다. 일반인들이 자율주행 차량을 구입할 수 있을 때보다 몇 년은 빨리 로보택시 비즈니스가 시행될 것으로 예상-이건 내용이 너희 비즈니스이기 때문에 남들만큼 주행 성능이 좋아야 성공할 수 있는 소음. 따라서 자율주행은 안전할 뿐만 아니라 남들만큼 민첩함과 재빠름이 중요-아래 예루살람에서 시행된 자율주행 영상을 보면 T자형 도로에서 모빌 어린이 차량은 비보호자 회전을 시도한다. 그러나, 본인차가 멈추지 않기 때문에, 모빌의 아이의 차는 멈춰 서는 것을 반복하면서 조금씩 전진. 정내용=결국 틈새를 만들어 직진차가 오기 전에 커브에 진입하고 자절성공-모빌 어린이는 자율주행차가 이처럼 형세에 맞춰 유연하고 기민한 주행능력까지 갖춰야 살아남는다. 설명


    ​ ​ ​ ​ 7.REM(Road Experience Management)​-복수의 차량에서 정보를 모으는 크라우드 소싱을 활용하고 고화질의 지도를 발생하는 기술 ​-L2+ADAS가 탑재된 차량이 주행하면서 들어온 또 일 중 중요한 정보만을 추출해서 클라우드의 서버에 전송 서버에는 인텔 고성능 서버용 CPU의 AI가속 기능을 활용하고 이를 종합하고 고화질의 지도를 발생한 뒤 다시 각 차량에 전송. 첫 킬로 미터 당 약 한 0킬로바이트에 불과했던 초등 저 대역 폭 데이터 업로드를 통해서 시르테 때로는에 가까운 성능을 실현. 이 과정은 전체 자동화되고 때 테러단 45마쵸쯔의 지도를 발생 ​-최근 첫 6,000회 이상의 주행 데이터를 활용하고 라스 베이거스 나 400km이상의 고화질 지도 발생. 특히 네바다 땅은 도로 지도를 발생하지만 24태 테러도 안 걸리는 썰매 타기. 이 지도는 만개의 표지판, 만곳의 신호나 가로등 같은 기둥, 최초의 500km이상의 중앙선을 포함 수천개의 도로 주변 사물에 대해서 센티 미터 수준의 정밀도를 제공 ​-BMW, NISSAN, 폴크스바겐과 이제 2년 전체 부지, 이를 실시, 모빌 이야기는 하루에 600만 km의 주행 데이터를 받아 왓소리. 이후 분기까지 유럽 전역, 올해 말까지 믹크의 전역에 대한 도로 지도를 만들 수 있을 것으로 예상 ​-추가로 올해 3개 완성 차 업체와 첫 00만대의 차량이 데이터를 보내기로 계약 체결. 이렇게 2022년까지 모두 최초의 400만대의 차량에서 데이터를 받을 것으로 보이​-차이나 땅 역시 매핑을 돌리고 칭화 대학의 유니 그룹과 조인트 벤처를 만들어 데이터 수집 중.차이나전기차 회사 인왕(NIO)은 차이나 회사 중 모빌 자녀의 자율주행 시스템을 소비자용 차량에 가장 먼저 탑재한 기업.20첫 9년 말 인왕산에서 자율 주행 Lv4설계 수주를 받았으며 2022년 솔루션을 탑재한 차량의 발매 예상 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 8.EyeQ칩 ​(1)개요-모빌의 아이의 완전 자율 주행을 위한 비전의 한가운데 컴퓨팅 칩. 카메라 기반 이제부터라고 처리 알고리즘과 ADAS기능이 이 프로세서 상에서 작동 ​-두개대, 즉 두개의 칩으로 구성된 우쟈 신 위에서 설명한 비전 알고리즘은 모드의 칩만으로 처리된 것( 다른 하자 입는 컴퓨팅 파워가 부족한 하나의 사태에 대비한 것으로 추측)​-모드 칩 크기 또한 90mm스퀘어에서 제온(인텔의 서버용 프로세서)와 같은 수백밀리 이상의 다른 제품보다 아주 작은 사이즈 ​ ​ ​(2)개발의 현황-2017년 12월 TSMC를 통해서 7쟈싱의 공정을 도입하고 EyeQ 5제작 완료, 2018년의 이야기, 정식 유출 ​-현재 챠랴은 단 2개의 EyeQ 5칩으로 2022년에는 6개가 적용될 것으로 예상된다.사실상 6개까지는 필요가 없우쟈 신 망하 낫을 대비해서 리스크를 막기 위해서 충분한 컴퓨팅 파워를 탑재 ​-2020년 EyeQ 6샘플의 출시가 예상된다. 2023년에는 챠랴은 단 단 하 쟈싱의 EyeQ 6칩 장착 ​-모빌 아이는 이런 자율 주행 시스템 비용을 10,000~15,000달러 수준에서 2025년까지 5,000달러 이하로 낮출 것이 목표. 그 정도가 1개 1개 소비자가 지불하는데 합리적인 비용이라고 의견


    >


    <출처:Mobileye>-이날 전반적인 발표를 듣고 느낀 점은 테슬라와 마찬가지로 비전인식 기술이 라이더 니더와 같은 높은 하드웨어를 배제하고 점차 소프트웨어 속에 단순화되고 있다는 점. 삼성의 갤럭시폰과 달리 구글의 픽셀폰이 자신의 아이폰인 어린이폰 역시 고가의 카메라 모듈을 끼워 넣기보다는 인공지능을 통해 카메라 성능을 향상시키고 있는 것 역시나 다를 바 없이 사용자들은 자율주행을 위한 비전기술이 점점 세분화되고 있다는 점. 보행자도 어떤 보행자, 어떻게 움직이는 보행자, 도로도 미세한 각도에서 고지동이 변화까지 측정하면서 정확성을 더 높이고 운전 중 발생할 수 있는 모든 위험을 스스로 제거하며 자신감을 보이는 것으로 보인다. 이 또한 인공지능 신경망을 주제별로 압축하는 소프트웨어적인 방법으로 해결하며, 소프트웨어의 중요성은 계속 커질 것으로 보이며, 이러한 다양한 결과를 원활하게 통합하고 정확한 의사결정을 지원하는 기술도 중요해진다는 의견


    댓글

Designed by Tistory.