מאמר מעניין של הניו יורק טיימס סוקר את הסיבה מדוע יהיה קשה יותר ויותר להתחרות במנוע החיפוש גוגל. גוגל מעלה בצורה מתמשכת (ומודעת) את הרף אליו צריכים מתחריו להגיע בכדי להוות תחרות אמיתית, כך שאפילו בכדי לספק שירות דומה לשירותי גוגל יאלצו המתחרים להוציא סכומי כסף אדירים, וזה עוד מבלי לשפר את התוצאות מעבר לאלו של גוגל, כך אומר מנהל לשעבר בגוגל.
רשת המחשבים של גוגל גדלה בצורה מהירה ביותר, ומ-8000 שרתים במרץ 2001 (כאשר גוגל סיפקו 70 מליון תוצאות חיפוש ביום) גדלה הרשת לכ-100,000 שרתים ב-2003. הערכות מדברות על כך שהרשת של גוגל כוללת כיום מעל 450,000 שרתים הפרוסים בלפחות 25 מקומות בעולם, המחוברים ברשת סיבים אופטיים נרחבת.
לפי תפיסת העולם של גוגל, כל מילי-שניה של המתנה לתוצאות חיפוש מובילה לירידה ברמת שביעות הרצון של המשתמש, כך שמהירות חיפוש עצומה הפכה להיות תנאי הכרחי עבור גוגל, מה שמחייב הגדלה מתמשכת של כוח המחשוב של המערכת, וקירוב של השרתים אל הצרכנים הסופיים.
מיקרוסופט, המתחרה הגדולה של גוגל, עובדת כיום עם כ-200,000 שרתים בכדי לספק את תוצאות החיפוש של מנוע החיפוש שלה, מספר הצפוי לגדול עד 800,000 ב-2011. האם מספר זה יספיק בכדי להתחרות בגוגל, או שמיקרוסופט יאלצו להשקיע סכומי עתק נוספים בתחרות זו? התשובה לשאלה זו לא ברורה.
חיפוש אחר צמד המילים "Dallas Google" יראה תוצאות חיפוש רבות הקשורות אל "פרוייקט 02" המסתורי של גוגל, מרכז מידע בגודל שני איצטדיוני פוטבול. גם מרכזי המידע החדשים עליהם הכריזו מיקרוסופט ויאהו בוונצ'י ובקווינסי וושינגטון הם רק רדיפה אחר קצב הגידול העצום של גוגל.
מרכז המידע החדש של גוגל יכיל ודאי עשרות אלפי מחשבים שישתמשו במעבדים זולים, ויוחזקו בסרטי וולקרו המאפשרים החלפה מהירה שלהם כפי שנהוג בגוגל. שני מגדלי קירור עצומים יאזנו את כמות החום העצומה שתיווצר על ידי רבבות המחשבים. המרכז ישתמש ברשת הסיבים האופטיים שנשארו באזור מימי בועת הדוט קום.
