Auch Robots, Web Bots, Spider oder Crawler genannt, sind von Suchservern geschickte Programme, die im WWW Informationen sammeln. Dabei hangeln sie sich an Hyperlinks von Dokument zu Dokument. Auch andere automatische Programme im Internet werden als Bots bezeichnet.