Correction semi-automatique des liens morts
This commit is contained in:
@@ -41,7 +41,7 @@ Imaginez quelqu'un qui vous veut du mal, et réalise un _deepfake_ vous montrant
|
||||
C'est techniquement faisable.
|
||||
Vous ne pouvez que vous en défendre a posteriori : il n'existe nul moyen préventif contre ce genre de malveillance.
|
||||
|
||||
Évidemment, il existe - encore - des outils pour déterminer la véracité d'une vidéo (par exemple, [_FakeCatcher_](https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-real-time-deepfake-detector.html) d'Intel), ou plus exactement, pour déterminer les chances qu'une vidéo donnée soit en réalité un _deepfake_.
|
||||
Évidemment, il existe - encore - des outils pour déterminer la véracité d'une vidéo (par exemple, [_FakeCatcher_](https://newsroom.intel.com/artificial-intelligence/intel-introduces-real-time-deepfake-detector) d'Intel), ou plus exactement, pour déterminer les chances qu'une vidéo donnée soit en réalité un _deepfake_.
|
||||
Mais pour combien de temps encore ?
|
||||
Et que se passera-t'il le jour où même les outils les plus perfectionnés n'en seront plus capables ?
|
||||
|
||||
|
||||
Reference in New Issue
Block a user