web crawler (decurtato spesso in → crawler) nel linguaggio informatico è un programma di navigazione automatica, un robot che scandaglia la Rete di solito per registrare le pagine ai fini dell’indicizzazione dei motori di ricerca, detto anche → spider.