A robot egy olyan programot jelent, amely az internetet pásztázza, és az egyes oldalakon előre programozott feladatokat hajt végre. A leggyakoribb és szívesen látott robottípus az ún. spider vagy crawler.
Ez egy keresőrobot, amely az internetet pásztázza, és indexeli a meglátogatott oldalakat. Ahhoz, hogy egy weboldal a keresési eredmények első oldalára kerüljön, könnyen elérhetőnek kell lennie a robotok számára, ugyanakkor a robotoknak elegendő releváns információt kell találniuk rajta. Ellenkező esetben a robotok nem fogják látogatni a weboldalt, és az a keresési eredmények alacsonyabb pozícióira kerül.
A fent említett – keresőmotorokhoz tartozó – robotok mellett olyan robotokat is ismerünk, melyek ellen védekeznünk kell. Ezek a robotok leggyakrabban szoros kapcsolatban állnak a spamekkel. Általában a kommenteket spammelik, vagy e-mail címeket gyűjtenek, amelyekre aztán spameket küldenek. Többféle védelem is létezik ellenük. Van olyan szoftver, amely meghatározott kritériumok alapján felismeri ezeket a robotokat, és megakadályozza a tevékenységüket. További viszonylag gyakran használt megoldás a kép alapú védelem, ahol a felhasználónak először be kell írnia a különféle módon torzított szöveget, amely például akkor jelenik meg, ha kommentet szeretne írni (CAPTCHA védelem).
A cím megadásával elfogadod az adatvédelmi irányelveket és az általános szerződési feltételeket.