Paris 2024 : il y aura bien des caméras « intelligentes » pour les Jeux olympiques

    L’Assemblée nationale a donné son feu vert à l’application de la vidéosurveillance « intelligente », un système de surveillance automatisée, pour sécuriser les Jeux olympiques de Paris 2024. La gauche y était opposée.

    Lors des JO de Paris, les images saisies par le réseau des caméras de surveillance seront analysés par des logiciels basés sur de l’intelligence artificielle. (Illustration) LP/Arnaud Journois
    Lors des JO de Paris, les images saisies par le réseau des caméras de surveillance seront analysés par des logiciels basés sur de l’intelligence artificielle. (Illustration) LP/Arnaud Journois

      C’était l’article le plus attendu, le plus commenté, le plus redouté de la « loi olympique ». L’Assemblée nationale a validé ce jeudi l’article 7 qui prévoit le recours à la vidéosurveillance « intelligente », une sorte de vidéosurveillance automatisée pendant les Jeux olympiques de Paris (du 26 juillet au 11 août 2024). Il a été largement adopté par 59 voix pour (majorité présidentielle - LR - RN) et 14 contre (Nupes).

      Que prévoit l’article en question ? Qu’à titre expérimental, la sécurisation « de manifestations sportives, récréatives ou culturelles » puisse recourir à des algorithmes. Ces logiciels basés sur de l’intelligence artificielle serviront à analyser ensuite les images saisies par le réseau des caméras de surveillance mais également les drones ou les aéronefs. Les algorithmes détecteront automatiquement des situations potentiellement à risque comme des bagages abandonnés, des mouvements de foule inhabituels ou encore des rassemblements.

      La reconnaissance faciale écartée

      Le texte adopté stipule que les images obtenues auront « pour unique objet de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler ». Lors des débats dans l’Hémicycle, le ministre de l’Intérieur avait cité en exemples « un départ de feu, des goulots d’étranglement de population, un colis ou un sac abandonné ». Mais « pas les sweats à capuche », a-t-il assuré soutenant que « les événements prédéterminés concernent non pas des personnes mais des situations ».

      La liste des événements détectables doit être fixée par décret.

      L’opposition de gauche était vent debout, rejointe sur ce point par les associations de défense des libertés et le Conseil national des barreaux. Malgré le rejet par le gouvernement du principe de la reconnaissance faciale, elle estime que la technologie testée pendant les Jeux pourrait entraîner ensuite sa généralisation.



      Les débats ont beaucoup tourné autour du caractère « biométrique » ou non des données, pour par exemple permettre d’isoler et suivre une personne. La majorité et le gouvernement assurent qu’elles ne revêtent pas ce caractère. « Ce seront forcément des données biométriques », a insisté pour sa part la députée Sandra Regol (écologiste).

      De son côté, l’organisation Amnesty International dénonce « une surveillance de masse assistée par intelligence artificielle » ce qui constitue selon elle « une offensive généralisée contre le droit à la vie privée, le droit de manifester et les droits aux libertés de réunion et d’expression ».

      Répétition lors du Mondial de rugby

      Quand entrera en application la loi ? La surveillance via ces caméras algorithmiques pourra débuter avant les Jeux olympiques (du 26 juillet au 11 août 2024) et paralympiques (du 28 août au 8 septembre) et se poursuivre après. L’Assemblée a ramené la période d’application au 31 décembre 2024 alors que le Sénat l’avait élargie de plusieurs mois. Dans ce cadre, la Coupe du monde de rugby en septembre et octobre 2023 pourrait servir de répétition générale avant la grande échéance des Jeux, l’été suivant. Sont concernées par le champ d’application de la surveillance algorithmique tous les événements sportifs, récréatifs et culturels dépassant les 300 participants.

      Les députés de l’opposition ont tenté de circonscrire davantage l’expérimentation, de la cantonner aux abandons de bagage, ou d’imposer le fait que l’État soit seul responsable de l’analyse des données, sans recourir au privé, mais sans succès.