Выбери любимый жанр

Домашний компьютер № 8 (122) 2006 - Домашний_компьютер - Страница 40


Изменить размер шрифта:

40

Если человек ни разу в жизни не видел ни одного реального Linux-вируса, а известные специалисты за год обнаружили их целых 87, то вполне естественным выглядит желание узнать поподробнее о столь неуловимых бестиях. Поэтому Барр послал в K-Lab запрос относительно какой-либо документации, подтверждающей их заявления. Для начала Барра отправили в «Энциклопедию вирусов», которая ведется на сайте Лаборатории.

Поиск вредителей для Linux в этой энциклопедии принес поражающие воображение 972 позиции. Правда, если взглянуть на всю эту жуть чуть внимательнее, то ситуация оказывается далеко не столь тревожной. Скорее даже — искусственно раздутой. Вот лишь несколько характерных особенностей, выявленных Барром в этом длиннющем списке.

Первые 256 позиций оказались вообще никак не задокументированы. Собственно вирусы в остальных позициях гипотетических угроз почти не присутствовали, а мало-мальски вразумительное описание обнаружилось лишь у 21 вируса — то есть примерно для 2% списка. Из этих 21 два оказались дубликатами. Еще один из 21 оказался вирусом Windows, а не Linux. Наконец, практически все из 21 известной «вредоносной программы» модифицируют файлы в соответствии со стандартными разрешениями, принятыми в операционных системах семейства Unix, где принципиально отличаются полномочия пользователя и администратора.

Поскольку все это даже близко не походило на «91 выявленный Linux-вирус», Джон Барр более настойчиво запросил конкретную документацию. Через несколько дней ему прислали список на 91 позицию, но в перечне этом не было абсолютно ничего, кроме голых названий. Для первого же номера данного списка в «энциклопедии» Касперского не оказалось вообще никакого упоминания. Это название удалось найти на сайте другой антивирусной компании, McAfee, однако и там не было никакой содержательной информации о вирусе. Дополнительные изыскания лишь подтвердили истину, давно известную для всей антивирусной индустрии. Единой системы классификации вирусов и прочих компьютерных вредителей здесь не существует, так что каждая компания дает им собственные имена. Таблицы соответствий для наиболее распространенных угроз по мере сил ведут лишь одиночки-энтузиасты, а в целом информация о любом новом «вредоносном коде» просто автоматически размножается без анализа и описаний, поскольку для бизнеса антивирусных компаний элементарно выгодно плодить число всевозможных угроз.

Тогда, любопытства ради, Барр решил сверить названия 21 документированного вируса в общем списке «Linux-вредителей» из 972 позиций энциклопедии и свежеполученного списка «Linux-вирусов» из 91 позиции. Таких пересечений оказалось 10. Из этих десяти два были обнаружены в 2000 году, четыре в 2001 году, три в 2002 и один в 2003… При переводе этой арифметики в обычные слова получается, что ни на один из «выявленных в 2005 году 87 Linux-вирусов» у K-Lab для въедливого запроса со стороны не обнаружилось ни документации, ни вообще хоть какого-то описания.

Подводя итог своему исследованию, Джон Барр имел, как видим, все основания констатировать, что «Лаборатория Касперского» делает крайне сильные заявления о вредоносных кодах в Linux, однако не имеет абсолютно ничего реального в подтверждение своих слов. Справедливости ради, Барр тут же делает оговорку, что подобными вещами занимается вовсе не только K-Lab, но и остальные антивирусные компании. Просто российская фирма наиболее заметна на рынке в своих энергичных попытках продвигать антивирусное ПО для Linux. А кому нужно такое ПО, если нет вирусов?

Находчивые слуги

Автор: Дмитрий Смирнов.

© 2003-2006, Издательский дом | http://www.computerra.ru/

Журнал «Домашний компьютер» | http://www.homepc.ru/

Этот материал Вы всегда сможете найти по его постоянному адресу: /2006/122/284569/

Один мой друг (он стоит двух, он ждать не привык) спрашивает у «Яндекса» так: (naked | nu) /+2 («britney spears» | «brittany spears»). Ладно, спрашивает он о другом, но синтаксис использует похожий. Однако многие сетяне (включая автора статьи) за долгие годы жизни в Интернете так и не освоили искусство сложных запросов и все еще надеются, что однажды смогут спросить поисковую машину в стиле Space Odyssey 2001 — простым человеческим языком, вслух, без нереального синтаксиса: скажи, мол, HAL-900028, где найти фот… в смысле, когда же будет концерт Бритни в Москве? И ответит искусственный разум: «This conversation can serve no purpose anymore. Goodbye». Ну а пока светлое будущее не наступило, поговорим о прошлом и настоящем поисковых технологий и систем, эдаких слуг, без помощи которых мы сегодня не можем ступить в Интернете и шагу.
Эволюция краулеров

Первым механизмом, который лег в основу интернет-поисковиков, стал так называемый crawler («ползунок» по Интернету). Написал его в июне 1993 года студент Массачусетского технологического института Мэтью Грей (Matthew Gray) с целью измерения пространства Сети. Программа называлась World Wide Web Wanderer, была написана на Perl, переходила с одного сайта на другой по ссылкам (спасибо коллекциям линков) и таким образом считала сайты и связи между ними. Простой арифметикой дело не ограничилось, и в конце того же 1993 года на основе «Скитальца» была создана первая в мире поисковая машина Wandex. Но до наших дней сей пионер, увы, не дожил.

Вторая поисковая машина — Aliweb (Archie Like Indexing for the Web) — была создана в октябре того же 1993 года и, в отличие от Wandex, жива и поныне. Это была первая целенаправленно созданная поисковая система (Wandex все-таки был экспериментальной разработкой-наследником Wanderer’а). Разработчик Aliweb Мартин Костер (Martijn Koster) впоследствии участвовал в создании стандарта Robots Exclusion Standard (механизма, позволяющего дать указание поисковым машинам не индексировать/не сохранять те или иные страницы или сайты целиком и не добавлять их в каталоги). В настоящий момент идет работа по полной переделке кода Aliweb. Основатели сервиса грозятся выпустить в 2007 году его новую версию и «убрать» с рынка поисковиков всех конкурентов, начиная с Google и заканчивая MSN и Yahoo. Мы уж начали бояться, нет, правда!

Следующим после Aliweb на рынок поисковиков вышел проект с говорящим названием WebCrawler, случилось это в начале 1994-го. Он тоже стал по-своему пионером: в нем впервые был задействован полнотекстовый поиск — не только по названиям/заголовкам/ключевым словам, но и по всему тексту любой страницы. Впоследствии это стало стандартом работы поисковых машин. WebCrawler первым приобрел популярность и признание, все предыдущие проекты не были столь «всенародными».

В том же 1994 году были запущены проекты Infoseek и Lycos (первым попытавшийся сделать поиск коммерческим предприятием). А в течение последующих трех лет на рынок вышли Altavista (долгое время считавшаяся лучшей поисковой системой, а сейчас практически забытая), Excite, Dogpile, Inktomi, Ask.com и Northern Light.

Ребрендинг Дживса

Ask.com, кстати, сначала называлась Ask Jeeves — по имени Дживса, героя серии книг П. Г. Вудхауза «Дживс и Вустер», знаменитого своей бесконечной эрудицией и способностью находить ответы на любые вопросы. Эта поисковая машина первой предложила пользователям задавать вопросы простым английским языком, нормальными предложениями, начинающимися с вопросительного слова. Работало, если честно, не очень эффективно, но сам подход вызывал уважение.

вернуться

28 Знаменитый говорящий бортовой компьютер из книги Артура Кларка «Космическая одиссея 2001».

40
Перейти на страницу:
Мир литературы