Был(а) онлайн: 26.04.20 14:45
Umen 26 лет |
||||
![]() |
Регистрация: 24.07.2012 - 12:13 1.0 Был(а) онлайн: 26.04.20 14:45 |
Недавно |
Здравствуйте.
Опишу задачу разработки. Есть сайт из 1000-20000 страниц.
Необходимо написать:
1. Робот, тот, что будет обходить сайт и собирать разные данные:
-ярус вложенности страницы (главная/второй уровень/третий/четвертый/...)
-тайтл и метатеги
-текст страниц
-исходящие ссылки со страницы
2. После этого изготавливать обзор всякой страницы и выбирать особенно подходящие низкочастотные ключевые слова для всей страницы
3. Сверять слова со статистикой wordstat.yandex.ru и выбирать добавочные слова, подходящие для всякой страницы
4. Класть в базу.
Также следует написать модуль с вероятностью регистраций админом новых пользователей, в котором:
- предусмотреть вероятность определения админом всему пользователю списка планов, с которыми будет трудиться пользователь
- позже логина пользователь выбирает проект
- после этого нажимает кнопку генерировать ссылку
- случайным образом выбирается страница со ссылками, и если в ней неиспользуемые ключевые слова создается ссылка (какого вида - подробнее исполнителю)
- пользователь подтверждает обмен, и эти ключевые слова считаются использованными один раз.
У всего плана админом дозволено указать сколько раз всякое слово должно применяться.
Больше подробное ТЗ - в личку.