Поиск по сайту можно скачать здесь. Установить скрипт поиска по сайту стало проще.
DPLProject предлагает Вам, установить на страницы Вашего сайта скрипт поиска по сайту. Модуль поиск по сайту распространяется абсолютно бесплатно. Все что Вам надо – заполнить регистрационную форму. После успешной регистрации система DPLProject выдаст скрипт поиска по сайту и продублирует его на Ваш e-mail.
Существует несколько вариантов установки поиска по сайту:
Первый вариант - вывод результатов поиска по сайту в новом окне
Данный вариант проще в установке но имеет ряд недостатков связанных с удобством пользователя.
Результаты поиска по сайту открываются в новом окне и не оформлены в стилях сайта.
Поддержка PHP не требуется - "Дешево и сердито".
Для установки необходимо выбрать на страницах сайта место где будет размещена форма для поиска и вставить туда "Код формы поиска".
Второй вариант - вывод результатов поиска по сайту в дизайне сайта
Данный вариант более сложен в установке, но зато вывод результатов поиска по сайту проиходит в дизайне Вашего сайта.
Поддержка PHP требуется - "Красота требует жертв".
Для установки необходимо:- создать дополнительную страницу bestsearch.php с дизайном Вашего сайта;
- в созданной дополнительной странице выбрать место куда будут выводиться результаты поиска по сайту и вставить туда "Код для вывода результатов поиска по сайту";
- на остальных страницах сайта (включая дополнительно созданную) выбрать место, где будет размещена форма для поиска и вставить туда "Код формы поиска".
Мы хотим обновить дизайн нашего сайта - но перед этим хотим услышать ваше мнение - "Стоит менять дизайн или нет!" - пишите в комментарии к странице. Ссылка на дизайн http://www.dplspider.ru/design_test.php
Проверил на 3-х 100% рабочих сайтах результат тот же.
ПС. Не могу войти для управления поиском в админку - ввоже сайт и почту, пишет ошибка, ввожу всё верно, несколько емейлов попробовал...
ID Вашего ресурса 18266
Ваш сайт не зарегистрирован в системе поиска DPLspider
Администратору сайта отправлено письмо с запросом на проверку Вашего ресурса.
....
Когда восстановится?
Можно ли изменить форму поиска, которую я установил на сайт, так, чтобы поиск был только в указанной директории сайта? ( site: www.netzulim.org, результаты в новом окне).
Спасибо.
Анатолий id 25383
laan34@013.net
кстати, что вы думаете об ответе, который я получил после отправки вам письма:
Your message cannot be delivered to the following recipients:
Recipient address: find@dplspider.ru
Reason: Illegal host/domain name found
27 Мая 2010г.
Мы рады, что нашим сервисом воспользовались более 1500 веб мастеров. Спасибо за доверие, критику и добрые слова.
16-01-2010
Реализация данной задачи позволила сократить количество проиндексированных страниц в базе и тем самым увеличить скорость поиска информации!
Для реализации данной задачи использовался алгоритм "Шингла" (определение нечетких копий) и "Супершингла" (определение четких копий).
Кратко о реализации алгоритма "Шингла":
- Проиндексированная страница (далее "Страница") очищается от всех знаков препинания и союзов.
- Страница разбивается на последовательности каждая из которых содержит 10 слов текста (называемый "шингл").
Последовательности выбираются с шагом в 1 слово и записываются в массив. - Из полученного массива последовательностей выбираются в случайном порядке 20 элементов.
- В цикле перебираем все ранее проиндексированные страницы сайта, очищаем их от знаков препинания, союзов и
разбиваем на шинглы (количество шинглов не ограничиваем! иначе будет ошибка логики) - Сравниваем каждый шингл из проиндексированной страницы (20 шт.) с шинглами из ранее проиндексированных страниц - считаем количество совпавших шинглов из 20.
- Если количество совпавших шинглов более или ровно 17 то такая страница считается нечеткой копией и в индекс сайта не заноситься!
Реализация "Супершингла" намного проще - создаем из текста проиндексированной страницы "хэш" и сравниваем его с "хэш-ами" ранее проиндексированных страниц.
Если "хеш" совпадает, то страница является четкой копией и в индекс сайта не заноситься.
Для оптимизации ресурсов сначала идет проверка на четкую копию ("Супершингл") а уже потом на нечеткую ("Шингл") т.к. проверка на четкую копию намного менее ресурсоемка.
ДЛЯ СВЕДЕНИЯ!?:
Количество операций необходимых для определения нечеткой копии по методу "Шинглов".
Представим что у нас в индексе 10 000 страниц каждая из которых содержит до 10 000 слов.
Теперь представим что мы проиндексировали 10 001 страницу и нам надо ее сравнить с уже имеющимися страницами.
Если мы используем 10-словный шингл то из каждой такой страницы необходимо создать 10000-10+1=9991 шингл
(для подсчета необходимо из количества страниц вычесть количество слов в шингле и прибавить единицу).
Умножаем количество страниц в индексе 10 000 на количество шинглов в одной странице 9991 получаем 99 910 000 шинглов в индексе.
Для определения степени схожести страниц умножаем количество шинглов в индексе 99 910 000 на количество шинглов из
вновь проиндексированной страницы и получаем 99 910 000*9991=998 200 810 000 операций т.е. около 990 триллионов!
Такое количество операци необходимо для того чтобы проверить одну страницу на уникальность!
Общая формула определения количества операций необходимых для определения уникальности
($page_len-$shingl_len+1)*$pageindex_count*($newpage_len-$shingl_len+1)
где:
$page_len - средняя длинна страницы в индексе
$shingl_len - длинна шингла
$pageindex_count - количество страниц в индексе
$newpage_len - длинна вновь проиндексированной страницы
Естественно что такое количество операций быстро произвести невозможно, поэтому мы оптимизировали поиск шинглов:
- Во вновь проиндексированной странице сравниваем не все шинглы а только 20 (выбранных в случайном порядке)
- Сравниваем шинглы вновь проиндексированной страницы не со всеми шинглами индекса а только с шинглами 50-ти последних проиндексированных страниц
- используем метод супер шингла для предварительной проверки на четкую копию
За счет исключения нечетких копий страниц в индексе мы добились значительного прироста в скорости поиска информации!
Будут вопросы пишите!
Для большинства интернет ресурсов основной трафик (поток) посетителей генерируют поисковые системы такие как Яндекс, Google, MSN, Rambler.
Определение качества этого трафика является наиважнейшей составляющей любого интернет проекта.
Качество трафика - это характеристика показывающая на сколько интересы аудитории сайта переходящей с поисковых систем совпадают с предоставляемыми на сайте услугами.
Основной недостаток всех сервисов статистики посещений в том, что они не могут отслеживать реальный интерес аудитории сайта.
Так как статистика посещений фиксирует лишь переходы пользователя по страницам сайта, то она может лишь указать на каких страницах был пользователь но не может указать на каких он хотел быть!
Статистика запросов в отличие от статистики посещений собирает информацию о реальном интересе аудитории сайта.
Вводя запрос в форму поиска пользователь не задумывается о том, что на самом деле кроме команды «найти» он передает информацию о интересующей его продукции или услуги!
Собирая и анализирую статистику запросов можно определить что:
-
интересующая аудиторию сайта продукция (услуга) не представлена на Вашем сайте
-
наиболее актуальная (востребованная) услуга (товар) неявно размещена в навигации сайта.
Симптом: «количественное преобладание какого либо запроса над остальными» -
Вы имеете не целевую аудиторию либо интересы рынка отличаются от предлагаемых Вами услуг
Симптом: «тематика многих запросов отличается от тематики сайта»
Не целевая аудитория, это посетители которые случайно попали на Ваш сайт и их не интересует предлагаемая Вами продукция или услуга.
Новый сервис - «Статистика запросов» уже реализован!
В сентябре 2007 года поиск по сайту «DPLspider» был протестирован одной из Московских Веб студий. Интернет магазин "Шины диски" - был выбран в качестве экспериментальной площадки .
Цель тестирования — определить возможности для перенаправления целевого трафика с главной страницы сайта на второстепенные используя поиск по сайту и знания поисковой оптимизации.
Перенаправление целевого трафика на страницы с максимально выгодными для продажи товарами или услугами является неотъемлемой частью любого успешного проекта.
В качестве основ научного тестирования легли такие характеристики как:
- релевантность вывода результатов поиска поисковому запросу;
- качество "сниппета" (вид сниппета должен быть приближен к ответу на вводимый пользователем вопрос);
- возможность использования META тегов для улучшения поиска по страницам;
- возможность определения тематики запроса т.е. на автомобильном сайте запрос "Jaguar" должен расцениваться как марка автомобиля а не как вид животного;
- возможность составления списка синонимов для наиболее востребованных запросов.
Для оптимизации использовались такие параметры как:
- плотность ключевых слов (контрастность фразы) в тексте страницы, заголовках метатегов;
- количество символов на странице;
- выделение текста используя HTML теги;
- использование ключевых слов в ссылках;
Тестирование производилось тремя независимыми экспертами. Оценивались результаты выдачи односложных и двусложных запросах.
Письмо с заключением студии было направлено в центр поддержки search@dplspider.ru.
Результаты тестирования оправдали ожидание разработчиков хотя и выяснилось, что некоторые из критериев поисковой оптимизации еще не учитываются.
В результате были значительно переработаны алгоритмы выдачи результатов поиска.
В начале января прошло повторное успешное тестирование. Проводившая тестирование Веб студия согласилась использовать сервис поиска по сайту DPLspider в своих проектах.
Теперь любой желающий сможет создать Интернет магазин своей продукции.
В данный момент сервис проходит тестирование, но установить скрипт можно уже сейчас.
Официальный сайт сервиса http//www.press-enter.ru
Получить скрипт Интернет магазина