Предизвикателства пред киберсигурността при автономно шофиране

Доклад помага на автомобилния сектор да повиши нивото си на готовност за реакция при инциденти, за да се справи при проблеми с AI

Доклад на Агенцията на Европейския съюз за киберсигурност (ENISA) и Съвместния изследователски център (JRC) разглежда рисковете за киберсигурността, свързани с изкуствения интелект (AI) в автономните превозни средства и предоставя препоръки за тяхното смекчаване.

Чрез премахване на най-честата причина за пътнотранспортни произшествия – шофьорът – автономните превозни средства се очаква да намалят пътнотранспортните произшествия и смъртните случаи. Те обаче могат да представляват съвсем различен тип риск за водачите, пътниците и пешеходците.

Автономните превозни средства имат системи за изкуствен интелект, които използват техники за машинно обучение, за да събират, анализират и прехвърлят данни, за да вземат решения, които в конвенционалните автомобили се вземат от хората.

Тези системи, както всички ИТ системи, са уязвими на атаки, които могат да компрометират правилното функциониране на автомобила.

A нов доклад от ENISA и JRC хвърля светлина върху рисковете за киберсигурността, свързани с AI в автономни превозни средства, и дава препоръки за тяхното омекотяване.

В съобщението на сайта на ENISA е цитиран и нейният изпълнителен директор Юхан Лепасаар, който казва, че при пресичането на границата в ЕС несигурното автономно превозно средство влиза заедно със своите уязвимости. Генералният директор на JRC Стивън Куест .пък казва, че е важно европейските разпоредби да гарантират, че ползите от автономното шофиране няма да бъдат придружени от рисковете за безопасността.

Системите за изкуствен интелект в автономно превозно средство работят непрекъснато, за да разпознават пътните знаци и пътната маркировка, да откриват превозни средства, да оценяват скоростта им, да планират пътя напред. Освен неволни заплахи, като внезапни неизправности, тези системи са уязвими към умишлени атаки, чиято конкретна цел е да попречат на системата за изкуствен интелект и да нарушат критичните за безопасността функции.

Добавянето на боя по пътя за заблуда на навигацията или стикери върху знак за спиране, за да се предотврати разпознаването му, са примери за такива атаки. Тези промени могат да доведат до това, системата за изкуствен интелект неправилно да класифицира обектите и като следствие автономното превозно средство да се държи по начин, който може да бъде опасен.

За да се подобри сигурността на AI в автономните превозни средства, докладът съдържа няколко препоръки, една от които е, че оценките на сигурността на компонентите на AI се извършват редовно през целия им жизнен цикъл.

Можете да споделите: