Zerosquare (./16212) :
Même en supposant qu'il y aura zéro demande abusive de la part de l'État (rire étouffé), ça ne fait que déplacer le problème : si une backdoor existe, alors la possibilité technique de faire ce que je disais précédemment existe
aussi, et un autre gouvernement moins honnête peut faire pression pour récupérer les données (ou carrément obtenir les clés). Ou placer des taupes chez Apple pour le faire de façon plus discrète. Ou, sachant qu'une backdoor existe, chercher des vulnérabilités dans son implémentation. Ou Apple peut se faire hacker. Ou changer un jour de politique, et se dire que c'est quand même bête d'avoir potentiellement accès à autant d'infos et de ne pas les exploiter commercialement. Ou...
À nouveau, ce n'est pas une backdoor (même si c'est vachement plus sexy de parler de backdoor). Alors, oui, on peut imaginer des taupes chez Apple… mais dans ce cas, si c'était aussi simple, suffirait de placer directement la backdoor dans le code d'iOS.
Et le potentiel commercial d'un truc qui ne concerne qu'un pouillème des utilisateurs doit être très limité.
Si les dernières décennies en matière de sécurité info nous ont appris un truc, c'est bien qu'un seul moyen est concrètement efficace pour éviter que des données confidentielles ne soient exploitées de façon malveillante : qu'elles ne soient pas collectées au départ (ou mieux encore, pas collectables).
Mais là, tu pars du principe que la sécurité individuelle prime par rapport à la sécurité collective.
Zeph (./16210) :
- La police doit-elle avoir à sa disposition des moyens supplémentaires pour ne pas subir une trop forte pénalité par rapport à ce que peuvent faire les criminels ?
Comme je l'ai écrit dans mon message précédent, ils en ont déjà, et ça n'a rien de choquant en soi. La question est de savoir où on place la limite du "non, ça c'est trop".
C'est là que je ne suis pas d'accord : certes, il y a plein de choses qui existent en théorie. En pratique, ce n'est pas le cas.
Brunni (./16211) :
Alors oui, sauf que la solution là a été d'enlever la sécurité complètement, ce qui est pire que d'avoir une backdoor (qui certes pourrait être exploitée par une organisation maléfique suffisamment puissante pour obtenir une zero-day qui passe inaperçue et dure dans le temps), non ?
Ce n'est pas évident de dire ça, je trouve. Une backdoor qui se balade dans la nature est un vrai risque vu qu'elle peut être utilisée par n'importe qui. Là, on passe forcément par un système de réquisition passant par le département juridique d'Apple, comme toutes les réquisitions auprès d'entreprises.
Zeph (./16210) :
- Est-ce problématique si ces moyens supplémentaires impliquent de pouvoir passer à travers les mécanismes assurant la vie privée des citoyens ?
Autant le premier point porte à discussion, autant j'ai du mal à croire qu'on puisse être de bonne foi en répondant un "non" pérementoire au deuxième, même avec une confiance aveugle dans les instances qui nous dirigent
(que nous sommes par ailleurs visiblement plusieurs à ne pas partager)
Mais tu ne peux pas mener d'enquête sans violer la vie privée, c'est le principe même des enquêtes (à part peut-être quelques faits qui sont commis en public, ok). Le tout est d'avoir de la proportionnalité entre les atteintes à la vie privée et les faits reprochés (d'où les structures de contrôle mises en place en France).
Alors, oui, il faut des institutions fiables, mais ça c'est vrai d'une manière générale (et on aurait pas mal de travail si le voulait, clairement).
Et pour revenir au sujet :
Apple fait une belle perf avec un premier modem 4G/5G qui est au niveau des meilleurs modèles actuels tout en consommant nettement moins, sachant que faire un modem a des défis d'autres natures qu'un processeur : probablement plus de brevets et surtout un besoin de compatibilité avec plein de réseaux d'opérateurs mal configurés.
Je suis surpris du choix de la bande millimétrique pour du satellitaire, alors que la portée est bien moindre
