crawler (abbr. di → web crawler) nel linguaggio informatico è un programma di navigazione automatica, un robot che scandaglia la Rete di solito per registrare le pagine ai fini dell’indicizzazione dei motori di ricerca (detto anche → spider).
crawler (abbr. di → web crawler) nel linguaggio informatico è un programma di navigazione automatica, un robot che scandaglia la Rete di solito per registrare le pagine ai fini dell’indicizzazione dei motori di ricerca (detto anche → spider).