센서와 소프트웨어는 자율주행 차량에 결합되어 오토바이, 자동차, 트럭 및 드론을 포함한 다양한 차량을 탐색, 조종 및 작동합니다.
개발 또는 설계 방식에 따라 운전자 지원이 필요할 수도 있고 필요하지 않을 수도 있습니다.
완전 자율주행 자동차는 운전자 없이 안전하게 운행할 수 있습니다. 일부, 같은 구글의 웨이모 자동차는 핸들조차 가질 수 없었습니다.
와 같은 부분 자율주행 자동차 테슬라, 차량의 완전한 제어를 가정할 수 있지만 시스템이 의심스러운 경우 도움을 줄 사람 운전자가 필요할 수 있습니다.
이 자동차에는 차선 안내 및 제동 지원부터 완전히 독립적인 자율 주행 프로토타입에 이르기까지 다양한 수준의 자가 자동화가 포함되어 있습니다.
무인 자동차의 목표는 교통량, 배기 가스 및 사고율을 낮추는 것입니다.
이는 자율주행차가 사람보다 교통 법규 준수에 더 능숙하기 때문에 가능한 일이다.
원활한 주행을 위해서는 차량이나 주변 사물의 위치, 목적지까지의 최단거리, 안전한 경로, 주행시스템 운용능력 등의 특정 정보가 필요하다.
필요한 작업을 언제, 어떻게 수행하는지 이해하는 것이 중요합니다.
이 기사는 다음을 포함하여 많은 근거를 다룰 것입니다. 시스템 구조 자율주행차, 필요한 구성 요소 및 차량 임시 네트워크(VANET)용.
자율주행차에 필요한 부품
오늘날의 자율 주행 차량은 카메라, GPS, 관성 측정 장치(IMU), 소나, 레이저 조명 감지 및 범위(lidar), 무선 감지 및 범위(레이더), 사운드 탐색 및 범위(음파 탐지기)를 포함한 다양한 센서를 사용합니다. 3D 지도.
이러한 센서와 기술은 실시간으로 데이터를 분석하여 조향, 가속 및 제동을 제어합니다.
레이더 센서는 주변 차량의 위치를 추적하는 데 도움이 됩니다. 차량은 주차 중 초음파 센서로 도움을 받습니다.
두 가지 유형의 센서를 모두 사용하여 Lidar로 알려진 기술이 만들어졌습니다. 자동차 주변 환경에서 빛 펄스를 반사함으로써 라이다 센서는 도로의 가장자리를 감지하고 차선 표시를 식별할 수 있습니다.
이것은 또한 다른 차량, 보행자 및 자전거와 같은 인접 장애물에 대해 운전자에게 경고합니다.
차량 주변의 모든 것의 크기와 거리는 라이더 기술을 사용하여 측정되며, 차량이 주변 환경을 보고 위험을 식별할 수 있는 3D 지도도 생성합니다.
하루 중 시간에 관계없이 밝든 흐리든 다양한 유형의 주변광에서 정보를 기록하는 데 탁월합니다.
자동차는 카메라, 레이더 및 GPS 안테나와 라이다 및 카메라를 사용하여 주변을 감지하고 위치를 식별합니다.
카메라는 보행자, 자전거 타는 사람, 자동차 및 기타 장애물을 확인하는 동시에 교통 신호를 감지하고 도로 표지판과 표시를 읽고 다른 차량을 추적합니다.
그러나 어둡거나 그늘진 곳에서는 어려움을 겪을 수 있습니다. 자율 주행 차량은 라이다, 레이더, 카메라, GPS 안테나 및 초음파 센서를 혼합하여 전방 도로를 디지털 방식으로 매핑하여 자신이 가고 있는 방향을 볼 수 있습니다.
고수준 시스템 아키텍처
필수 센서, 액추에이터, 하드웨어 및 소프트웨어가 아키텍처에 나열되어 있으며 AV의 전체 통신 메커니즘 또는 프로토콜도 보여줍니다.
지각
이 단계는 주변 환경과 관련하여 AV의 위치를 식별하고 다양한 센서를 사용하여 AV 주변 환경을 감지하는 단계로 구성됩니다.
AV는 이 단계에서 RADAR, LIDAR, 카메라, 실시간 운동(RTK) 및 기타 센서를 사용합니다. 인식 모듈은 이러한 센서에서 데이터를 수신하고 전달한 후 처리합니다.
일반적으로 AV는 제어시스템, LDWS, TSR, UOR(Unknown 장애물 인식), VPL(Vehicle Positioning and Localization) 모듈 등으로 구성된다.
결합된 정보는 처리 후 의사결정 및 기획 단계에 제공됩니다.
결정 및 계획
이 단계에서 AV의 움직임과 행동은 지각 과정에서 수신된 정보를 사용하여 결정되고 계획되고 제어됩니다.
뇌가 나타내는 이 단계는 경로 계획, 행동 예측, 장애물 회피 등과 같은 것에 대한 선택이 이루어지는 단계입니다.
선택은 실시간 지도 데이터, 교통 세부 정보, 추세, 사용자 정보 등을 포함하여 현재 및 과거에 액세스할 수 있는 정보를 기반으로 합니다.
나중에 사용하기 위해 실수와 데이터를 추적하는 데이터 로그 모듈이 있을 수 있습니다.
Control
제어 모듈은 판단 및 계획 모듈로부터 정보를 수신한 후 조향, 제동, 가속 등과 같은 AV의 물리적 제어와 관련된 작동/액션을 실행합니다.
차대
마지막 단계는 기어 모터, 스티어링 휠 모터, 브레이크 페달 모터, 가속기와 브레이크용 페달 모터와 같은 섀시에 부착된 기계 부품과 상호 작용하는 것입니다.
제어 모듈은 이러한 모든 구성 요소에 신호를 보내고 관리합니다.
이제 다양한 주요 센서의 설계, 작동 및 사용에 대해 이야기하기 전에 AV의 일반적인 통신에 대해 이야기하겠습니다.
레이다
AV에서 RADAR는 환경을 스캔하여 자동차 및 기타 물체를 찾고 찾는 데 사용됩니다.
RADAR는 종종 공항이나 기상 시스템과 같은 군사 및 민간 목적 모두에 사용되며 밀리미터파(mm-Wave) 스펙트럼에서 작동합니다.
24, 60, 77, 79GHz를 포함한 다양한 주파수 대역이 현대 자동차에 사용되며 측정 범위는 5~200m[10]입니다.
전송된 신호와 반환된 에코 사이의 ToF를 계산하여 AV와 물체 사이의 거리가 결정됩니다.
AV에서 RADAR는 범위 분해능과 다중 표적 식별을 향상시키기 위해 로브 컬렉션을 생성하는 마이크로 안테나 어레이를 사용합니다. mm-Wave RADAR는 증가된 투과성과 더 큰 대역폭으로 인한 도플러 이동의 변화를 활용하여 모든 방향에서 근거리 물체를 정확하게 평가할 수 있습니다.
mm-Wave 레이더는 파장이 더 길기 때문에 비, 눈, 안개 및 저조도에서 작동할 수 있는 차단 방지 및 오염 방지 기능이 있습니다.
또한 도플러 이동을 사용하여 mm-Wave 레이더를 통해 상대 속도를 계산할 수 있습니다. 그 기능으로 인해 mm-Wave 레이더는 장애물 감지, 보행자 및 차량 인식을 포함한 광범위한 AV 애플리케이션에 매우 적합합니다.
초음파 센서
이 센서는 20–40kHz 범위에서 작동하며 초음파를 사용합니다. 물체의 거리를 측정하는 데 사용되는 자기 저항막이 이러한 파동을 생성합니다.
반향 신호에 대한 방출파의 ToF(Time-of-Flight)를 계산하여 거리가 결정됩니다. 초음파 센서의 일반적인 범위는 3미터 미만입니다.
센서 출력은 20ms마다 새로 고쳐지므로 ITS의 엄격한 QoS 요구 사항을 준수하지 못합니다. 이 센서는 비교적 작은 빔 감지 범위를 가지며 지향됩니다.
따라서 전체 시야를 확보하기 위해서는 수많은 센서가 필요합니다. 그러나 많은 센서가 상호 작용하여 상당한 범위 부정확성을 초래할 수 있습니다.
LiDAR
905 및 1550 nm의 스펙트럼은 LiDAR에서 사용됩니다. 인간의 눈은 905nm 범위에서 망막 손상에 취약하기 때문에 현재 LiDAR는 1550nm 대역에서 작동하여 망막 손상을 줄입니다.
최대 200미터는 LiDAR의 최대 작동 범위입니다. 솔리드 스테이트, 2D 및 3D LiDAR는 LiDAR의 다른 하위 범주입니다.
단일 레이저 빔이 2D LiDAR에서 빠르게 회전하는 거울 위에 분산됩니다. 포드에 여러 개의 레이저를 배치하면 3D LiDAR가 주변의 3D 사진을 얻을 수 있습니다.
도로변 LiDAR 시스템이 교차로 및 비교차 구역 모두에서 차량 대 보행자(V2P) 충돌 횟수를 줄이는 것으로 입증되었습니다.
16라인의 실시간 계산 효율적인 LiDAR 시스템을 사용합니다.
인공 딥 자동 인코더를 사용하는 것이 좋습니다. 신경망 (DA-ANN), 95m 범위에서 30%의 정확도를 달성합니다.
64라인 3D LiDAR와 결합된 SVM(Support Vector Machine) 기반 알고리즘이 보행자 인식을 향상시키는 방법을 보여줍니다.
mm-Wave 레이더보다 측정 정밀도와 3D 비전이 더 우수하지만 LiDAR는 안개, 눈, 비와 같은 악천후에서 성능이 떨어집니다.
카메라
장치의 파장에 따라 AV의 카메라는 적외선 또는 가시광선 기반일 수 있습니다.
카메라(CMOS)에는 전하결합소자(CCD)와 상보형 금속산화물반도체(CMOS) 이미지 센서가 사용된다.
렌즈 품질에 따라 카메라의 최대 범위는 약 250m입니다. 실화상 카메라에 사용되는 400개의 대역(빨간색, 녹색 및 파란색)은 사람의 눈과 동일한 파장인 780~XNUMXnm(RGB)로 구분됩니다.
두 개의 VIS 카메라가 설정된 초점 거리와 결합되어 깊이(D) 정보가 포함된 새 채널을 생성하여 입체 비전을 생성할 수 있습니다.
카메라(RGB-D)를 통한 이 기능 덕분에 차량 주변 지역의 3D 보기를 얻을 수 있습니다.
780nm에서 1mm 사이의 파장을 갖는 수동 센서는 적외선(IR) 카메라에 사용됩니다. 최대 조명에서 AV의 IR 센서는 시각적 제어를 제공합니다.
이 카메라는 물체 인식, 측면 보기 제어, 사고 기록 및 BSD로 AV를 지원합니다. 그러나 눈, 안개 및 변화하는 조명 조건과 같은 악천후에서는 카메라의 성능이 변경됩니다.
카메라의 주요 이점은 환경의 질감, 색상 분포 및 모양을 정확하게 수집하고 기록하는 기능입니다.
항법 위성 시스템 및 위성 위치 확인 시스템, 관성 측정 장치
이 기술은 AV가 정확한 위치를 찾아내도록 도와줍니다. 행성 표면 주위를 도는 위성 그룹은 GNSS가 위치를 파악하는 데 사용됩니다.
시스템은 AV의 위치, 속도 및 정확한 시간에 대한 데이터를 저장합니다.
수신된 신호와 위성의 방출 사이의 ToF를 파악하여 작동합니다. GPS(Global Positioning System) 좌표는 종종 AV 위치를 얻는 데 사용됩니다.
GPS에서 추출한 좌표가 항상 정확한 것은 아니며 일반적으로 평균값이 3m이고 표준 편차가 1m인 위치 오차가 추가됩니다.
수도권 상황에서는 최대 20m의 위치 오차로 성능이 더욱 저하되며, 특정 상황에서는 GPS 위치 오차가 약 100m에 달한다.
또한 AV는 RTK 시스템을 사용하여 차량의 위치를 정확하게 결정할 수 있습니다.
AV에서 차량의 위치와 방향은 추측 항법(DR)과 관성 위치를 사용하여 결정할 수도 있습니다.
센서 융합
적절한 차량 관리 및 안전을 위해 AV는 위치, 상태 및 무게, 안정성, 속도 등과 같은 기타 차량 요소에 대한 정확한 실시간 지식을 얻어야 합니다.
이 정보는 다양한 센서를 사용하는 AV에서 수집해야 합니다.
여러 센서에서 얻은 데이터를 병합하여 센서 융합 기술을 활용하여 일관된 정보를 생성합니다.
이 방법을 사용하면 보완 소스에서 얻은 처리되지 않은 데이터를 합성할 수 있습니다.
결과적으로 센서 융합은 AV가 다양한 센서에서 수집한 모든 유용한 데이터를 병합하여 주변을 정확하게 파악할 수 있도록 합니다.
칼만 필터 및 베이지안 필터를 포함한 다양한 유형의 알고리즘이 AV에서 융합 프로세스를 수행하는 데 사용됩니다.
RADAR 추적, 위성 항법 시스템 및 광학 주행 거리 측정을 포함한 여러 응용 프로그램에서 사용되기 때문에 Kalman 필터는 차량이 자율적으로 작동하는 데 중요한 것으로 간주됩니다.
차량 임시 네트워크(VANET)
VANET은 모바일 장치/차량의 네트워크를 자발적으로 생성할 수 있는 모바일 Ad Hoc 네트워크의 새로운 하위 클래스입니다. V2V(Vehicle-to-Vehicle) 및 V2I(Vehicle-to-Infrastructure) 통신은 VANET을 통해 가능합니다.
이러한 기술의 주요 목표는 도로 안전을 높이는 것입니다. 예를 들어 사고 및 교통 체증과 같은 위험한 상황에서 자동차는 서로 상호 작용하고 네트워크와 상호 작용하여 중요한 정보를 전달할 수 있습니다.
다음은 VANET 기술의 주요 구성 요소입니다.
- OBU(on-board unit): 각 차량에 장착된 GPS 기반 추적 시스템으로 차량 간에 그리고 RSU(Roadside Unit)와 상호 작용할 수 있습니다. OBU에는 리소스 명령 프로세서(RCP), 센서 장치 및 사용자 인터페이스, 필수 정보를 얻습니다. 주요 목적은 무선 네트워크를 사용하여 여러 RSU와 OBU 간에 통신하는 것입니다.
- RSU(Roadside Unit): RSU는 거리, 주차장 및 교차로의 정확한 지점에 배치된 고정 컴퓨터 장치입니다. 주요 목표는 자율주행 차량을 인프라에 연결하는 것이며 차량 현지화에도 도움이 됩니다. 또한 다양한 기능을 활용하여 차량을 다른 RSU에 연결하는 데 활용할 수 있습니다. 네트워크 토폴로지. 또한 태양광 발전을 포함한 주변 에너지원에서 실행되었습니다.
- TA(신뢰할 수 있는 기관): 합법적인 RSU와 차량 OBU만 등록하고 상호 작용할 수 있도록 VANET 프로세스의 모든 단계를 제어하는 기관입니다. OBU ID를 확인하고 차량을 인증하여 보안을 제공합니다. 또한 유해한 통신 및 이상한 행동을 찾습니다.
VANET은 V2V, V2I 및 V2X 통신을 포함하는 차량 통신에 사용됩니다.
차량 2 차량 통신
자동차가 서로 대화하고 교통 혼잡, 사고 및 속도 제한에 관한 중요한 정보를 교환하는 기능을 차량 간 통신(IVC)이라고 합니다.
V2V 통신은 부분 또는 전체의 메쉬 토폴로지를 사용하여 다양한 노드(차량)를 함께 연결하여 네트워크를 만들 수 있습니다.
차량간 통신에 사용되는 홉의 수에 따라 SIVC(단일 홉) 또는 MIVC(다중 홉) 시스템으로 분류됩니다.
MIVC는 트래픽 모니터링과 같은 장거리 통신에 사용될 수 있지만 SIVC는 레인 병합, ACC 등과 같은 단거리 애플리케이션에 사용될 수 있습니다.
V2V 통신을 통해 BSD, FCWS, 자동 비상 제동(AEB), LDWS 등 다양한 이점을 제공합니다.
차량 2 인프라 통신
자동차는 RVC(Roadside-to-Vehicle Communication)라는 프로세스를 통해 RSU와 통신할 수 있습니다. 주차 미터기, 카메라, 차선 표시 및 교통 신호를 감지하는 데 도움이 됩니다.
자동차와 인프라 간의 임시, 무선 및 양방향 연결.
트래픽 관리 및 감독을 위해 인프라의 데이터가 사용됩니다. 자동차가 연비를 극대화하고 교통 흐름을 관리할 수 있도록 다양한 속도 매개변수를 조정하는 데 사용됩니다.
RVC 시스템은 인프라(URVC)에 따라 희소 RVC(SRVC)와 유비쿼터스 RVC로 구분할 수 있다.
SRVC 시스템은 개방된 주차 공간이나 주유소를 찾는 것과 같은 핫스팟에서만 통신 서비스를 제공하는 반면 URVC 시스템은 고속에서도 전체 경로를 커버합니다.
네트워크 커버리지를 보장하기 위해 URVC 시스템은 많은 투자를 필요로 합니다.
차량 2 모든 통신
자동차는 V2X를 통해 보행자, 길가의 사물, 장치, 그리드(V2P, V2R, V2D)(V2G)를 포함한 다른 개체와 연결할 수 있습니다.
이러한 종류의 통신을 사용하여 운전자는 위험에 처한 보행자, 자전거 타는 사람 및 오토바이 라이더를 때리는 것을 피할 수 있습니다.
보행자 충돌 경고(PCW) 시스템은 V2X 통신을 통해 치명적인 충돌이 발생하기 전에 길가 승객의 운전자에게 경고할 수 있습니다.
보행자에게 중요한 메시지를 보내기 위해 PCW는 스마트폰의 블루투스나 NFC(Near Field Communication)를 활용할 수 있다.
결론
자율주행 자동차를 만드는 데 활용되는 많은 기술은 자동차의 작동 방식에 큰 영향을 미칠 수 있습니다.
가장 기본적으로 자동차는 주변 경로와 경로에 있는 다른 차량에 대한 정보를 제공하는 일련의 센서를 사용하여 주변 지도를 개발합니다.
그런 다음 이 데이터는 자동차가 실행할 일련의 작업을 생성하는 복잡한 기계 학습 시스템에 의해 분석됩니다. 이러한 동작은 시스템이 차량 주변에 대해 더 많이 학습함에 따라 정기적으로 변경 및 업데이트됩니다.
자율 차량 시스템 아키텍처에 대한 개요를 제공하기 위해 최선을 다했지만, 그 뒤에는 더 많은 일이 있습니다.
여러분이 이 지식을 소중하게 여기고 활용하기를 진심으로 바랍니다.
댓글을 남겨주세요.