Franco Di Melo Innestato
2021-08-27 02:25:13 UTC
Con l'entrata in vigore del GDPR e forse già da prima, con una
precedente normativa entrata in vigore, sono stato costretto a
interrompere l'IP banning perdendo il controllo sulle attività dannose
di motori esterni che prima monitoravo costantemente.
Attualmente non sono in grado di capire se non indirettamente quanti
utenti abbia il mio sito. Il mio server provider mi fornisce dei tool
che pago appositamente, ma è talmente scomodo utilizzarli che in pratica
li pago solamente.
Tale tool mette teoricamente nella possibilità di conoscere l'ip dei
visitatori del sito e quindi distinguere gli utenti dai motori, ma oltre
che laborioso è, per quanto di mia conoscenza, illegale, pertanto anche
in tal caso non lo pratico.
Alla fine vorrei capire se ci siano dei margini per installare dei tool
sul mio sito, per analizzare i log e distinguere gli utenti dai bot e
quindi blockare questi ultimi attraverso l'IP, dato che il robots.txt
non funziona per tutti, come anche il blocco nell'htaccess sulla base
della stringa user-agent.
Ormai sono alcuni anno che pubblico contenuti senza avere la concreta
certezza che vengano letti da veri utenti: il suicidio di un'attività di
pubblicazione online!
precedente normativa entrata in vigore, sono stato costretto a
interrompere l'IP banning perdendo il controllo sulle attività dannose
di motori esterni che prima monitoravo costantemente.
Attualmente non sono in grado di capire se non indirettamente quanti
utenti abbia il mio sito. Il mio server provider mi fornisce dei tool
che pago appositamente, ma è talmente scomodo utilizzarli che in pratica
li pago solamente.
Tale tool mette teoricamente nella possibilità di conoscere l'ip dei
visitatori del sito e quindi distinguere gli utenti dai motori, ma oltre
che laborioso è, per quanto di mia conoscenza, illegale, pertanto anche
in tal caso non lo pratico.
Alla fine vorrei capire se ci siano dei margini per installare dei tool
sul mio sito, per analizzare i log e distinguere gli utenti dai bot e
quindi blockare questi ultimi attraverso l'IP, dato che il robots.txt
non funziona per tutti, come anche il blocco nell'htaccess sulla base
della stringa user-agent.
Ormai sono alcuni anno che pubblico contenuti senza avere la concreta
certezza che vengano letti da veri utenti: il suicidio di un'attività di
pubblicazione online!