Des chercheurs incitent Tesla à franchir massivement la limite de vitesse en collant un morceau de ruban électrique de 2 pouces sur une pancarte • Technologik

Vid Un seul morceau de ruban électrique collé à un panneau routier de 35 mph (56 km / h) est suffisant pour tromper le logiciel du pilote automatique dans les véhicules de Tesla en accélérant jusqu’à 85 mph (136 km / h).

La vulnérabilité était signalé par McAfee Labs, la branche de recherche sur la sécurité de McAfee, mercredi. Steve Povolny, chef de McAfee Advanced Threat Research, et Shivangee Trivedi, un scientifique des données travaillant dans la même équipe, ont découvert l’attaque lorsqu’ils ont sondé le système de caméra à bord des véhicules Tesla Model X et Model S, tous deux construits en 2016.

Les deux voitures utilisent un appareil photo contenant le Puce EyeQ3 de MobilEye, une société de vision par ordinateur basée en Israël et détenue par Intel, pour étudier les environs du véhicule. Les images sont ensuite alimentées en entrée d’algorithmes d’apprentissage automatique pour détecter des éléments tels que les marquages ​​et les panneaux de voie afin que le logiciel de pilote automatique de Tesla prenne automatiquement le contrôle de la direction pour changer de voie et suivre la limite de vitesse, si le conducteur la configure.

Lorsque les chercheurs ont placé un peu de ruban électrique noir mesurant environ deux pouces (5 cm) de long sur un panneau routier représentant une limite de vitesse de 35 mph (56 km / h), la caméra MobilEye dans un modèle X a mal lu le panneau à 85 mph (136 km / h) et a commencé à accélérer en conséquence.

tesla_adversarial_example

Le ruban de deux pouces de long est placé sur le chiffre trois. Ce type d’attaque est décrit comme Type A dans les résultats ci-dessous.

Dans la démonstration ci-dessous, le conducteur prend le contrôle du pilote automatique et commence à freiner lorsque la voiture atteint environ 50 mph (80 km / h).

Vidéo Youtube

Le bug n’affecte que les véhicules Tesla plus anciens équipés du système de caméra MobilEye EyeQ3, décrit comme le Pack de matériel 1. Il ne fonctionne également que si la voiture prend en charge Traffic Aware Cruise Control (TACC) dans le logiciel de pilote automatique de Tesla. La fonction TACC permet à la vitesse de la voiture d’être manipulée par des panneaux routiers détectés par la caméra montée sur son pare-brise.

“Nous avons répété les tests de nombreuses fois – bien qu’il ne soit pas tout à fait fiable à 100% pour obtenir une classification erronée lorsque le véhicule est en mouvement. Une fois mal classée, la fonction TACC est fiable à 100% pour définir la vitesse cible incorrecte”, a expliqué McAfee. porte-parole a déclaré Technologik.

Les chercheurs ont tenté de tromper les caméras de Tesla en classant à tort le panneau routier de 35 mph en plaçant du ruban électrique sur le panneau de différentes manières. Ils ont testé un modèle X 125 fois sur différents styles d’autocollants sur quatre jours.

Le ruban de deux pouces de long sur le numéro trois est décrit comme “Type A” dans le résultats. Le type A a été testé 43 fois, et l’appareil photo a confondu le signe 35 mph à 85 mph 25 fois – il a donc été trompé avec succès dans environ 58% des cas.

Exemples accusatoires pesants

Le panneau routier modifié est considéré comme un exemple contradictoire dans le secteur de l’IA. Pour créer des exemples contradictoires qui trompent systématiquement les algorithmes d’apprentissage automatique, les chercheurs ont d’abord dû expérimenter avec un classificateur d’images.

Tout d’abord, ils ont attaqué le classificateur d’images avec divers exemples contradictoires pour trouver les meilleurs. Étant donné que les chercheurs ont un accès complet au fonctionnement du classificateur d’images, le processus est décrit comme une attaque en “boîte blanche”. Ensuite, ils ont affiné et transféré l’attaque sur les caméras de Tesla sans avoir de connaissances détaillées sur le fonctionnement de son algorithme de reconnaissance d’image, connu sous le nom d’attaque “boîte noire”.

“Ce que cela signifie, dans sa forme la plus simple, ce sont des attaques exploitant le piratage de modèles qui sont entraînées et exécutées contre la boîte blanche, également connue sous le nom de systèmes open source, seront transférées avec succès vers la boîte noire, ou des systèmes propriétaires entièrement fermés, tant que le les caractéristiques et les propriétés de l’attaque sont suffisamment similaires “, ont-ils déclaré.

Bien qu’il soit alarmant qu’un morceau de ruban noir puisse tromper une voiture Tesla pour accélérer automatiquement, les dangers potentiels sont probablement assez limités. Le conducteur doit activer la fonction TACC après que les caméras ont été trompées en appuyant deux fois physiquement sur le levier du pilote automatique de la voiture, ont déclaré les chercheurs. El Reg.

“Le conducteur se rendrait probablement compte que la voiture accélérait rapidement et enclencherait les freins ou désactiverait le TACC, et d’autres caractéristiques, telles que la prévention des collisions et éventuellement la distance à parcourir, pourraient atténuer la possibilité d’un accident.

“La recherche a été réalisée pour illustrer les problèmes que les vendeurs et les consommateurs doivent connaître et pour faciliter le développement de produits plus sûrs.”

AI_person_recognition

Boffins enfile la mauvaise mode des années 80 pour éviter d’être détecté par des caméras AI reconnaissant les objets

LIRE LA SUITE

Le système de caméras EyeQ3 de MobilEye est déployé dans plus de 40 millions de véhicules, y compris les voitures de Cadillac, Nissan, Audi et Volvo.

Les chercheurs n’ont testé les caméras de MobilEye et le logiciel de pilote automatique que dans des véhicules Tesla Model S et X plus anciens. Les véhicules plus récents ne contiennent pas de caméras MobilEye; Tesla a mis fin à son partenariat avec le biz israélien en 2016.

Ce n’est pas la première fois que des exemples contradictoires parviennent à tromper les voitures Tesla dans la vraie vie. L’année dernière, un autre groupe de chercheurs de Tencent a montré que ses voitures pouvaient être forcé de dévier à travers les voies en plaçant des autocollants sur la route.

“Nous avons contacté et divulgué les résultats à la fois à MobilEye et à Tesla fin septembre 2019 – tous deux ont exprimé leur intérêt et leur satisfaction à l’égard de la recherche, mais n’ont indiqué aucun plan pour aborder les modèles déployés sur le terrain”, nous ont expliqué les chercheurs de McAfee Labs. . Nous avons contacté Tesla pour un commentaire. ®

Sponsorisé:
Exploiter la valeur des données

Source

A propos admin

Découvrez également

Économisez 100 £ maintenant – l’offre Tix pour les lève-tôt se termine cette semaine. Voici une conférence à ne pas manquer • Technologik

un événement Si vous voulez vous rapprocher de certains des meilleurs cerveaux de DevOps, conteneurs, …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *