1

Correction semi-automatique des liens morts

This commit is contained in:
2025-11-01 15:40:40 +01:00
parent f8b824c540
commit 890c95a450
36 changed files with 405 additions and 105 deletions

View File

@@ -41,7 +41,7 @@ Imaginez quelqu'un qui vous veut du mal, et réalise un _deepfake_ vous montrant
C'est techniquement faisable.
Vous ne pouvez que vous en défendre a posteriori : il n'existe nul moyen préventif contre ce genre de malveillance.
Évidemment, il existe - encore - des outils pour déterminer la véracité d'une vidéo (par exemple, [_FakeCatcher_](https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-real-time-deepfake-detector.html) d'Intel), ou plus exactement, pour déterminer les chances qu'une vidéo donnée soit en réalité un _deepfake_.
Évidemment, il existe - encore - des outils pour déterminer la véracité d'une vidéo (par exemple, [_FakeCatcher_](https://newsroom.intel.com/artificial-intelligence/intel-introduces-real-time-deepfake-detector) d'Intel), ou plus exactement, pour déterminer les chances qu'une vidéo donnée soit en réalité un _deepfake_.
Mais pour combien de temps encore ?
Et que se passera-t'il le jour où même les outils les plus perfectionnés n'en seront plus capables ?