Hvad er maskinsyn, og hvor vigtigt er det for selvkørende biler?

Nøgle takeaways

  • Selvkørende biler er afhængige af maskinsynsteknologi til at se og forstå deres omgivelser, så de kan registrere genstande, identificere skilte og navigere på vejen.
  • Maskinsyn i selvkørende biler består af et kamerasystem, edge computing og AI-algoritmer, som arbejder sammen om at indsamle visuel information, behandle den i realtid og identificere mønstre og objekter.
  • Maskinsyn er afgørende for at opnå fuld autonomi i selvkørende biler, da det muliggør objektklassificering, spor- og signalregistrering, skilteidentifikation og trafikgenkendelse. Fremtiden for autonome køretøjer ligger i fremskridt inden for AI, edge computing og kamerateknologi.

Selvkørende biler har altid vakt opmærksomhed. Selvom vi måske ikke har fuldt autonome biler endnu, har vi biler med avancerede førerassistentsystemer (ADAS), der er i stand til automatisk styring, vognbaneskift, parkering og trafikbevidst fartpilot.

En selvkørende bil bruger adskillige sensorer til sin ADAS, hvor maskinsyn er den primære måde at detektere, identificere og beregne afstanden mellem objekter og de generelle omgivelser. Uden maskinsyn er selvkørende biler med fartpilot og autopilot meget usandsynlige.

Hvad er Machine Vision?

Machine vision er en teknologi, der gør det muligt for maskiner at se og genkende objekter i deres omgivende miljø. Det er en delmængde af computersyn, der fokuserer på de industrielle anvendelser af visionsorienteret objektdetektering i autonome maskiner såsom robotter og køretøjer.

Machine vision bruger i dag AI deep learning algoritmer såsom convolutional neural networks (CNN’er) til at skabe robuste og velgeneraliserede modeller, der nøjagtigt kan identificere objekter under forskellige forhold. Det gør det muligt at implementere maskinsyn på forskellige opgaver, der kræver højere pålidelighed inden for fremstilling, landbrug, robotteknologi og bilindustrien.

Hvordan virker Machine Vision i selvkørende biler?

Maskinsyn i selvkørende biler kan typisk opdeles i tre dele: kamerasystemet, behandling (edge ​​computing) og AI. Denne teknologistabel gør det muligt for et autonomt køretøj at se, tænke og identificere skilte og forhindringer under kørsel. Lad os diskutere hver del i dybden for at forstå, hvordan disse teknologier hænger sammen for at danne en selvkørende bils maskinsyn.

Kamera System

Machine vision er afhængig af kamerasystemer til at indsamle visuel information om miljøet. Selvkørende biler anvender flere kameraer installeret omkring bilen for at indsamle så meget visuel information som muligt.

To hovedsensorer bruges i maskinsynskameraer: komplementære metaloxid-halvledere (CMOS) og ladningskoblede enheder (CCD). For selvkørende biler foretrækkes CMOS ofte på grund af dens hurtige udlæsningshastighed, kraftfulde elektronik på skibet og parallelle behandlingsmuligheder, hvilket gør den til den hurtigere sensor, omend tilbøjelig til støj eller artefakter. Løsninger, såsom forskellige lystilstande, digitalt nattesyn og filtre, kan hjælpe CMOS-sensoren under mindre end ideelle lysforhold.

For selvkørende biler er kameraer installeret i visse afstande fra hinanden for at producere stereoskopisk vision. Stereoskopisk syn er evnen til at kombinere to eller flere visuelle input, hvilket skaber en følelse af dybde eller tredimensionalitet i objekter og miljøet. Dette giver igen biler mulighed for at triangulere og beregne den omtrentlige afstand mellem objektet og bilen.

Da mennesker har to øjne, har vi også gavn af stereoskopisk syn. Du kan selv teste det; luk det ene øje og vælg en lille genstand fra dit skrivebord. Placer din hånd på objektets side og sørg for, at spidsen af ​​objektet er mindst to tommer væk. Prøv at holde pause i et par sekunder og se, hvor sikker du er med din tilnærmelse. Prøv nu at åbne begge øjne og se, hvordan din sans for dybde er meget bedre.

Edge computer

Mens kamerasystemet på den selvkørende bil samler data, vil en indbygget computer (kantprocessor) behandle alle input i realtid for at opdatere systemet om status for miljøet med det samme. Selvom typiske machine vision-opgaver kan spare penge ved brug af cloud computing, er der simpelthen for stor risiko for, at selvkørende biler er forbundet til skyen, selvom det er for at outsource processen i dens krav til machine vision.

Brug af en edge-computer til at behandle inputdata eliminerer latensproblemer og sikrer, at data modtages, behandles og kommunikeres i realtid. Edge-computere til selvkørende biler bruger specialiserede computere, der integrerer AI-grafikprocessorer som NVIDIAs Tensor Core og CUDA Cores.

AI algoritmer

Algoritmer har altid været en afgørende del af maskinsyn. Algoritmen er det, der gør det muligt for en computer at identificere alle de mønstre, former og farver, som kamerasystemet leverer. Brug af kunstig intelligens over mere traditionelle maskinsynsalgoritmer forbedrer i høj grad en selvkørende bils evne til pålideligt at identificere genstande, gadeskilte, vejmarkeringer og trafiklys. Mange AI-algoritmer bliver brugt til at træne selvkørende biler. De mest populære inkluderer:

  • YOLO (You Only Look Once): En objektdetekteringsalgoritme i realtid, der identificerer og sporer objekter i bilens synsfelt.
  • SIFT (Scale-Icar’sant Feature Transform): Bruges til udtræk af funktioner og hjælper bilen med at genkende karakteristiske vartegn og genstande i dens omgivelser.
  • Histogram of Oriented Gradients (HOG): Bruges til objektgenkendelse og fokuserer på at udtrække lokale mønstre og gradienter fra billeder.
  • TextonBoost: En algoritme, der hjælper med objektgenkendelse ved at analysere teksturer i miljøet.
  • AdaBoost: Ansat til dataklassificering, AdaBoost kombinerer flere svage klassifikatorer for at træffe stærke beslutninger om objekter og forhindringer i køretøjets vej.

Vigtigheden af ​​maskinsyn i selvkørende biler

Billedkredit: Automobile Italia/Flickr

Maskinsyn er den primære måde for en selvkørende bil at fornemme og forstå sine omgivelser. Uden maskinsyn er det meget sandsynligt, at selvkørende biler bliver skubbet tilbage til niveau 1 på køretøjets autonomiskala og måske aldrig når fuld autonomi.

Med maskinsyn er selvkørende biler nu i stand til objektklassificering, spor- og signaldetektering, skilteidentifikation og trafikgenkendelse.

Selvom mange selvkørende køretøjer nu bruger forskellige sensorer, såsom LIDAR, RADAR og SONAR, er de alle stærkt afhængige af maskinsyn for at se omgivelserne, identificere objekter og forstå betydningen af ​​skilte og trafiklys på vejen. Alle disse ekstra sensorer er kun til for at øge maskinens udsyn og fremme sikkerheden for mennesker, dyr og egenskaber.

Når det er sagt, kan maskinsyn fungere uafhængigt uden hjælp fra andre sensorer for at give autopilotfunktioner. Faktisk droppede Teslas nyeste selvkørende biler RADAR og er nu udelukkende afhængige af maskinsyn til deres autopilotsystem.

Selvom dette ikke betyder noget i forhold til at miskreditere anvendeligheden af ​​andre sensorteknologier, viser det vigtigheden og kraften af ​​maskinsyn i selvkørende biler.

Fremtiden for maskinsyn i autonome køretøjer

Maskinsyn er grundlaget for selvkørende biler. Gennem maskinsyn kan biler se og opfatte miljøet præcis som mennesker gør. Selvom udfordringerne fortsætter, kan fordelene ved maskinsyn med hensyn til sikkerhed og navigation ikke undervurderes. Hvad angår fremtiden for autonome køretøjer, vil enhver yderligere fremgang inden for AI, edge computing og/eller kamerateknologi helt sikkert gøre selvkørende biler mere dygtige, hvilket sandsynligvis vil flytte dem til et højere niveau af automatisering.