Mám pod správou úzce zaměřené profesní weby, vyšší statisíce stránek a AI roboti se mnohdy tak neomaleně dotazují, že vyberou všechny zdroje serveru. Není problém 300 spojení jednoho crawlera a dotazovat se několik týdnů a vlastně stále dokola na to samé.
Nemám v zásadě problém, že se AI naučí ze znalostí jiných a vydělává na tom. Neměla by ale zdroje přetěžovat, protože si na sebe poštve ty, kteří se o servery starají. A než kvůli AI desetkrát nebo stokrát navyšovat výkon, to si raději napíšete nějaký ten honeypot nebo jiný blokátor.