Przeszukiwacz sieciowy (znany również jako pająk sieciowy, robot-pająk, robot sieciowy lub po prostu robot) to program komputerowy używany przez wyszukiwarkę do indeksować strony internetowe i treści w sieci WWW. … Indeksowanie wyszukiwania można porównać do indeksowania książek.
Co to jest robot w ICT?
Przeszukiwacz sieciowy (znany również jako pająk lub robot sieciowy) to program lub zautomatyzowany skrypt, który przegląda sieć WWW w sposób metodyczny, zautomatyzowany. Ten proces nazywa się indeksowaniem sieci Web lub pająkiem. Wiele legalnych witryn, w szczególności wyszukiwarek, wykorzystuje pająki jako sposób dostarczania aktualnych danych.
Do czego służy robot sieciowy?
Znajdowanie informacji przez indeksowanie
Używamy oprogramowania znanego jako roboty indeksujące do odkrywania publicznie dostępnych stron internetowych. Roboty indeksujące przeglądają strony internetowe i podążają za linkami na tych stronach, podobnie jak Ty, gdybyś przeglądał treści w sieci. Przechodzą od linku do linku i przesyłają dane o tych stronach z powrotem na serwery Google.
Jakim typem agenta jest robot indeksujący?
Przeszukiwacz sieci Web to jeden typ bota lub agenta oprogramowania. Ogólnie rzecz biorąc, zaczyna się od listy adresów URL do odwiedzenia, zwanych nasionami. Gdy robot indeksujący odwiedza te adresy URL, identyfikuje wszystkie hiperłącza na stronie i dodaje je do listy adresów URL do odwiedzenia, zwanej granicą indeksowania.
Co to jest szczegółowe wyjaśnienie?
Indeksowanie ma miejsce, gdy Google lub inna wyszukiwarka wysyłająbot do strony internetowej lub posta w sieci i „przeczyta” stronę. … Indeksowanie jest pierwszą częścią rozpoznawania Twojej strony przez wyszukiwarkę i pokazywania jej w wynikach wyszukiwania. Zaindeksowanie strony nie musi jednak oznaczać, że została (lub zostanie) zaindeksowana.