
В начале 90-х годов, до момента создания файла robots.txt, главной заботой веб-мастеров была доступность сайтов, а не позиции в выдаче, и сайты не имели той пропускной способности, которая существует сегодня. Новый принятый стандарт помогал закрывать для роботов отдельные части сайта. Основные поисковики того времени, в числе которых WebCrawler, AltaVista и Lycos, быстро приняли robots.txt и приспособили к нему свои алгоритмы. И даже сегодня, спустя два десятка лет, поисковые системы все так же подчиняются ограничениям, установленным robots.txt.