Bonjour,
Ceux qui suivent l'actualité de Geneamania ont pu voir que j'ai mis en oeuvre des mesures anti robots dans la nouvelle version. Ce n'est pas spécifique à Geneamania. Next vient de faire un article sur ce genre de problème qui se généralise et met en danger des infra-structures : Articles sur Next (https://next.ink/178942/les-crawlers-des-ia-deviennent-un-serieux-probleme-pour-le-web-meme-pour-wikimedia/).
Concrètement, Geneamania, ce sont des centaines de milliers (millions ?) de pages possibles. Si le robot veut tout scanner, cela peut consommer énormément de ressources. En février, le serveur a été saturé et j'ai dû prendre des mesures en urgence (certaines évolutions de la nouvelle version sont d'ailleurs déjà présentes sur les sites hébergés). Pour le moment, ça "tient" ; mais jusqu'à quand ? D'autant que les robots ne sont pas forcément respectueux des consignes des sites.
Quand vous utilisez l'IA, n'oubliez pas que tout cela a un coût qui devient exorbitant ! A quand un peu de régulation, sinon, il va y avoir des dégâts ?
Bonne journée dans ce monde calme et serein...
Jean-Luc
Bonjour,
C'est effectivement très inquiétant.
Espérons que comme dans le film "l'homme au complet blanc" une limite se découvrira pour arrêter les méfaits du progrès !
Bon courage et bonne journée.
Serge