תוכנת סריקת עמוד תוכנה, אשר נקראת לעתים גם עכביש וספיידרבוט (באנגלית: Web crawler או רק Crawler) היא תוכנה שנועדה לקרוא מסמכי היפרטקסט שרצה בדרך כלל בתזמון נתון במטרה לסרוק קטע תחום או מוגדר של פלט תוכנה כגון עמוד אינטרנט (ובזה גם דף ווב) המכיל תוכן במטרה לאנדקס אותו.
התוכנה סורקתא תה מידע אל בסיס הנתונים של מאגר מידע מסוים (ובעיקר מנוע חיפוש) מידע רלוונטי על בסיס המידע הנסרק. ככלל, תוכנה כזו היא חלק מתוכנה רחבה יותר המהווה מנוע חיפוש.
ככל שיש יותר קישורי Dofollow המפנים אל אתר מסוים כך סביר יותר שתוכנת סריקה תסרוק אותו, אם כי באופן כללי תזמון סריקה תלוי גם בגורמים אחרים (כגון ציון האיכות הכללי של האתר).
דוגמה בולטת לתוכנת סריקה היא תוכנת הסריקה של גוגל סרצ' (Googlebot); תוכנת סריקה זו נכנסת לאתרי ווב שנודע לה על קיומם ושאין מניעה לסרוק אותם (כמו בקשת היעדר סריקה ב HTML או בקובוץ robots.txt ועוד) ובהתאם לכך סורקת את תוכנם.