זמן קריאה: 7 דקות

ביום שני בשבוע שעבר התקיים כנס מקדמי אתרים בתל אביב, שניים מהדוברים הציגו טכניקות אופטימיזציה וכלים אוטומטיים שנמצאים בשימושם והמוכרים בשם: Black Hat. יום אחר כך (וכנראה כתגובה לדברים בכנס…) פרסם מאט קאטס פוסט בשני בלוגים מרכזיים של גוגל (http://insidesearch.blogspot.com/ ו-http://googlewebmastercentral.blogspot.com) ובו הצהיר על שינוי חדש באלגוריתם של מנוע החיפוש (אשר זכה מאוחר יותר לכינוי "עדכון פינגווין"), שאמור לפגוע במיקומים של אתרים המשתמשים בטכניקות Black Hat שכאלה והקרויות בפי גוגל בפשטות: Web Spam. אבל ידוע לנו לא מהיום שגוגל נלחמת בספאם, אז מה חדש הפעם? נבדוק קודם מזה בעצם Black Hat ו-Web Spam ואז ננסה לענות על השאלה: מה השתנה העדכון הזה מכל העדכונים?

 

 

Black Hat SEO הוא שם למגוון שיטות שנועדו להביא מנועי חיפוש לדרג אתר גבוה בתוצאות החיפוש שלא באמצעות עדכונו בתוכן שימושי, מועיל ומעניין. כמה מהשיטות האלה מתרכזות בפעילות באתר עצמו (On Site) כמו מיסוך (Clocking), Sneaky Redirects, טקסט חבוי, Keyword Stuffing וכו'. אחרות מתרכזות בפעילות מחוץ לאתר (Off Site) שנועדה להעלות באופן מלאכותי את מספר הקישורים לאתר ובכך להציג מצג שווא כאילו גולשים רבים יותר ממליצים עליו ברשת. אחת השיטות המוכרות שאותה גם הזכירו בכנס היא הפצה המונית של תוכן משוכתב אוטומטית, כלומר כתיבה של מאמר אחד, "סיבובו" (Spinning) באמצעות תוכנות המחליפות מילים במילים נרדפות, משנות את המבנה התחבירי של המשפט, משנות את סדר המשפטים בפסקה ועוד. באמצעות "סיבוב" מאמר אחד אפשר ליצור עשרות מאמרים משוכתבים שלא מוסיפים מבחינת תוכנם דבר על המאמר המקורי, ובאמצעות הפצתם ברשת לזכות בעשרות קישורים לאתר מסוים במקום קישור אחד מהמאמר המקורי. דרך אגב, שיטות שנועדו להעלות באופן מלאכותי את מספר ההצבעות לדף מסוים לא מצטמצמות ללינקים מאתרים אחרים אלא כוללות גם סיגנלים חברתיים כמו העלאה מלאכותית של מספר Likes, Tweets וכן Google +1 שמקבל דף מסוים באמצעות חטיפת קליקים (Click Jacking) למשל.

 

 

 

לעומת טכניקות ה-Black Hat קיימות שיטות SEO הקרויות White Hat שהמכנה המשותף שלהן הוא פעילות שנועדה בראש ובראשונה לשפר את חוויית המשתמש (UX) של הגולש האנושי – מתוך מחשבה ששיפור האתר יביא גם לדירוגו גבוה יותר בתוצאות החיפוש. גם כאן הפעילות משלבת עבודת On Site ו-Off Site. פעילות באתר עצמו כוללת התאמה של כותרות (Titles, Headings) ממצות ורלוונטיות לתוכן הדף, סידור האתר במבנה היררכי שיקל על הדפדוף (Browsing), חיבור נכון בין דפי האתר באמצעות קישורים, שימוש בתגיות שונות שיאפשרו לבעלי לקויות ראייה לגלוש באתר באמצעות דפדפנים מיוחדים, תיקון של בעיות סריקה המונעות מדפים מסוימים להיסרק על יד מנועי חיפוש, טיפול בתוכן כפול באתר, שיפור מהירות הטעינה של דפים וכו'. פעילות White Hat מחוץ לאתר כוללת בעיקר השגת קישורים לאתר באמצעות העלאה של מאמרים רלוונטיים לאתרי מאמרים, פרסום פוסטים אורח (Guest Posts) בבלוגים מהתחום, החלפות קישורים עם אתרים המציעים תוכן משלים לתוכן האתר, מענה על שאלות בפורומים בתחום, שימוש ברשתות החברתיות העיקריות כדי להפיץ את תוכן האתר בתפוצה ויראלית רחבה וכו'.

מנועי החיפוש מנסים לנטר את פעילויות ה-Black Hat שנעשתה באתר ולהעניש את האתר שנמצאה בו פעילות כזו. ענישה של אתר באמצעות מחיקתו מהאינדקס של מנוע חיפוש לא נעשית מסיבות מוסריות אידיאולוגיות אלא בראש ובראשונה מטעמים פרקטיים. כיוון שפעילות Black Hat היא כאמור ניסיון להטעות את מנוע החיפוש כאילו אתר מציג תוכן מסוים או כאילו אתר זוכה בהצבעות אמון ברשת בעוד שלמעשה האתר הוא דל תוכן וזניח ברשת, הצגה שלו בראש תוצאות החיפוש תהיה פגיעה באמון שרוכשים הגולשים לאותו מנוע חיפוש. גולש שיחפש מידע על משכנתא למשל ותוצאות החיפוש של מנוע מסוים יציגו לו דפים דלי תוכן שמטרתם העיקרית היא בכלל להפנותו לאתר המוכר ערכות דיאטה, יאבד את האמון במנוע החיפוש הזה ויפנה למנוע שיציג לו תשובות שימושיות.

מנועי החיפוש הקימו חטיבות ענק הפועלות לנטר ולסנן פעילות Black Hat לא לגיטימית, והידועה ביניהן היא כמובן חטיבת האנטי ספאם של גוגל שבראשה עומד מאט קאטס. החטיבה קיימת מאז שגוגל הפכה למנוע חיפוש מוכר ובמשך שנותיה עסקה בפיתוח אלגוריתמים שנועדו לנקות את תוצאות החיפוש של גוגל מתוצאות לא ראויות (על כמה מהפטנטים בתחום הזה שרשמו במהלך השנים אפשר לקרוא במאמר הזה באתר SEO by the Sea). לרוב נראה שהעבודה של חטיבות האנטי ספאם היא סיזיפית – כל עדכון אלגוריתמי הביא את אנשי ה-Black Hat והספאם בכלל למצוא שיטות קידום חדשות. אבל נראה שהשנה האחרונה הביאה איתה בכל זאת כמה עדכונים שמקשים במיוחד על אתרי ספאם להתברג בראש התוצאות.

העדכון החשוב והידוע בשנה האחרונה הוא עדכון פנדה על שלל הגרסאות שלו, שמטרתו הייתה לסנן אתרים דלי תוכן בכלל ולא רק כאלה המיישמים שיטות Black Hat. עדכון פנדה פגע וממשיך לפגוע (בכל חודשיים-שלושה יוצאת גרסה חדשה של העדכון) באחוזים ניכרים מהאתרים בעולם. לפני כחודש הצהיר מאט קאטס בכנס SXSW שמהנדסי גוגל עובדים זה כמה חודשים על עדכון אלגוריתמי הנועד לזהות אתרים שנראה שהשתמשו ב-Over Optimization ולבטל את היתרון היחסי שלכאורה ניסו להשיג מול אתרים שלא הקפידו במיוחד על SEO אבל השקיעו בתוכן מעניין. מהו Over Optimization? קשה להגדיר, אבל אפשר להשוות את זה ליופי טבעי הכולל פגמים פה ושם מול יופי פלסטי-מלאכותי מושלם לכאורה. למה אנשים יוצאים לעתים ממתיחת פנים אצל מנתח פלסטי יפים פחות משהיו? כי לפני הניתוח, היה – על אף הקמטים – משהו טבעי ואמיתי בפניהם, ואחרי הניתוח העור אמנם מתוח אבל הם נראים כמו בובות פלסטיק לא מוצלחות. אז גם אתרים שעברו Over Optimization נראים כמו אתרי פלסטיק לא מוצלחים – תוכן דפי האתר נקבע בדיוק על פי ביטויים בעלי נפחי חיפוש גדולים ב-Keyword Tool, הביטויים המרכזיים מופיעים בצפיפות "מושלמת" הן בכותרות, הן בתוכן ואפילו בתגי ה-ALT של התמונות, כל הקישורים הנכנסים יוצאים מטקסט עוגן חד-גוני על הביטויים המקודמים וכו' – בקיצור אתרים שעברו "מתיחת פנים" מוגזמת אצל מקדמי האתר. בשל כך Over Optimization נחשבת גם היא לספאם במשמעות הרחבה שלו כתוכן לא טבעי.

לכן, השינוי שעליו הצהיר קאטס בשבוע שעבר הוא המשך ישיר לפעילות האנטי ספאם האינטנסיבית של השנה האחרונה. אין בו למען האמת שום חידוש מבחינת השיטות הנחשבות בעיני גוגל לפרקטיקות Black Hat או Web Spam שחלקן הוזכרו כאן למעלה. נראה שהחידוש הוא ביכולות של גוגל לזהות פעילות כזו בצורה מהירה יותר. במשך שנים הצליחה אמנם גוגל לסנן אתרי ספאם מתוצאות החיפוש, אבל לעיתים הזיהוי ארך חודשים רבים. במהלך החודשים האלה אתרי הספאם שהשתמשו ב-Black Hat SEO דורגו גבוה בתוצאות ומשכו תנועה רבה שאת חלקה הצליחו להמיר להכנסות.

חשוב להזכיר כאן שהמערכת המדרגת אתרים בתוצאות החיפוש נפרדת מהמערכת המסננת מבין התוצאות את אתרי הספאם. הסיבה לצורת העבודה הזאת היא כנראה ההכרח של מנועי החיפוש להיות עדכניים ולהציג דפים חדשים ברשת במהירות האפשרית. אם כל דף חדש שהיה עולה היה צריך לעבור את פילטר הספאם לפני הופעתו בתוצאות החיפוש היינו יכולים לשכוח מתוצאות עדכניות ברשת. לכן דפים חדשים נסרקים במהירות ומדורגים מיד על פי פרמטרים שונים בדף עצמו (רלוונטיות התוכן למשל) ומחוץ לדף (כמות הקישורים לדף המהווים מעין המלצות לקריאת הדף). רק אחר כך הם נדרשים לעבור בפילטר הספאם שייקבע האם התוכן כתוב אכן בידי אדם או "מסובב" באמצעות מכונה והאם הקישורים אליהם אכן הושגו ממשתמשים אנושיים או נשתלו על ידי מכונה.

דרך הפעולה של הספאמרים הייתה אם כן כזאת: הקמה מהירה של אתר המוכר מוצר שנמכר היטב ברשת (או אתר המפנה במסגרת תכנית שותפים למשל לאתר אחר שמוכר את המוצר) וקידומו בצורה אגרסיבית ומהירה באמצעי Black Hat. לא פעם האתר היה מזנק לראש התוצאות בעקבות מאות אלפי קישורים למשל שהושגו באמצעות רובוטים כמו Xrummer או SENuke השותלים הודעות פיקטיביות בפורומים ובלוגים בעולם. פילטר האנטי ספאם של גוגל היה מגיע אליהם לבסוף ומוחק אותם מהתוצאות, אבל עד אז היו יכולים לעבור שבועות (ובשפות מסוימות ובתחומים מסוימים, אפילו חודשים!) שבהם גולשים נכנסו לאתרים האלה וחלקם כאמור אף קנו בהם מוצרים. ספאמרים מקימים אתרים חדשים כל הזמן ובדרך כלל עובדים עם מאות אתרים בכל רגע, ולכן מחיקה של אתר מסוים לא מעניינת אותם במיוחד – על כל אחד שיורד, אחר עולה…

לכן – על אף שאין על זה רמיזות בפוסט של קאטס שאומר בפירוש: "[…] we can't divulge specific signals because we don't want to give people a way to game our search results" – נראה שהשינוי הפעם הוא בעיקר שינוי של מהירות התגובה לספאם ברשת. ייתכן ש"חלונות הזהב" בין העלאת דף והסינון שלו שבהם הצליחו ספאמרים לשווק את המוצרים שלהם הולכים להצטמצם בזמן הקרוב. זאת ועוד, השינוי יחול באופן גורף על כל השפות בבת אחת, וישפיע על כ-3% עד 5% מכלל השאילתות ברשת (מספר עצום לנוכח כל שאילתות ה-Long Tail למיניהן). 'ויאגרה', 'דיאטה', 'הימורים' ו'סרטים להורדה' יהיו שם בטוח, מה עוד לדעתכם?