пятница, 6 июня 2014 г.

Как изменить адрес входа в админ-панель WordPress (wp-login.php на что-нибудь другое)

Для того, чтобы переименовать файл wp-login.php (тем самым изменить страницу входа) вам потребуется:

  1. Измените название файла wp-login.php на свое (например, 123-qwe.php) 
  2. Скопируйте это название, откройте переименованный файл 123-qwe.php и с помощью текстового редактора замените все слова wp-login.php на 123-qwe.php. 
  3. Откройте файл wp-includes/general-template.php и также произведите замену всех wp-login.php на 123-qwe.php. 


 После этих несложных манипуляций адресная строка входа в панель администратора изменится с http://site.ru/wp-login.php на http://site.ru/123-qwe.php

суббота, 26 апреля 2014 г.

Полезные инструменты и ссылочки на них от Димы Берга

Xseo.in - пожалуй один из самых моих любимых сервисов по аналитике. Смотрим ТИЦ, whois, PR и другие параметры.

Cy-pr.com - тоже самое, где мне приглянулось именно удобство предоставления информации, но нужна регистрация.

Megaindex - конечно, показывает не всю информацию, но в общем можно сделать выводы о ссылочной базе.

 LinkPad.ru — бывшее название Solomono. Также дает наиболее полную информацию о ссылках, но стоит учесть, что история хранится очень старая, поэтому база не всегда актуальна на текущий момент для каждого сайта.

 MegaIndex (видимость сайта) — сервис собирает информацию по большему количеству сайтов и может показать очень достоверную информацию по трафикодающим ключам.

 Spyonweb.com — можно найти сеть сайтов одного человека по коду Adsense. Не работает, если владелец прячет код в js.

 2ip.ru - иногда интересно посмотреть, как каком движке сделан тот или иной сайт.

 archive.org — очень полезный сервис, с помощью которого можно посмотреть историю домена, если вы только начинаете делать сайт.

 nic.ru — наиболее удобный, на мой взгляд, сервис по подбору домена. 

http://www.domainsbot.com/ — еще один удобный сервис по подбору домена.

 xtool.ru — агрегатор многих сервисов, который очень хорошо показывает, насколько хорошо «себя чувствует» сайт в Яндексе. Пример, xt=2, значит на сайте проблемы, xt=5 сайт хорош, xt=8 сайт имеет очень высокий траст и, скорее всего, занимает высокие позиции в выдаче и не дает проходу конкурентам. По графикам часто можно узнать, когда на сайте фильтр. 

pingdom.com — иногда проблема долгой загрузки сайта именно в самом сайте, а не в хостинге. Сервис покажет, какие элементы сайта создают проблемы.

 pelewin.ru — создатель сервиса http://pelewin.ru/li. С помощью этого инструмента можно найти молодые сайты с большим количеством трафика.

 http://quirktools.com/ — проверяем как выглядит сайт на устройствах с различным разрешением.

  http://dimaberg.ru/poleznye-servisy

Как найти идею для сайта. Онлайн база

19.03.2014 - СЕМИНАР - "Нюансы работы с CPA сетями в 2014 году". Часть 2

- Источники трафика - Рекламодатели - Инструменты конвертации - Как добиться высокой конверсии - Когда возможен высокий ROI

пятница, 18 апреля 2014 г.

DDOS любого сайта с помощью Google Spreadsheet

Google использует своего «паука» FeedFetcher для кэширования любого контента в Google Spreadsheet, вставленного через формулу =image(«link»).

Например, если в одну из клеток таблицы вставить формулу

=image("http://example.com/image.jpg")

Google отправит паука FeedFetcher скачать эту картинку и закэшировать для дальнейшего отображения в таблице.

Однако если добавлять случайный параметр к URL картинки, FeedFetcher будет скачивать её каждый раз заново. Скажем, для примера, на сайте жертвы есть PDF-файл размером в 10 МБ. Вставка подобного списка в таблицу приведет к тому, что паук Google скачает один и тот же файл 1000 раз!

=image("http://targetname/file.pdf?r=1")
=image("http://targetname/file.pdf?r=2")
=image("http://targetname/file.pdf?r=3")
=image("http://targetname/file.pdf?r=4")
...
=image("http://targetname/file.pdf?r=1000")

Все это может привести к исчерпанию лимита трафика у некоторых владельцев сайтов. Кто угодно, используя лишь браузер с одной открытой вкладкой, может запустить массированную HTTP GET FLOOD-атаку на любой веб-сервер.


Атакующему даже необязательно иметь быстрый канал. Поскольку в формуле используется ссылка на PDF-файл (т.е. не на картинку, которую можно было бы отобразить в таблице), в ответ от сервера Google атакующий получает только N/A. Это позволяет довольно просто многократно усилить атаку [Аналог DNS и NTP Amplification – прим. переводчика], что представляет серьезную угрозу.

С использованием одного ноутбука с несколькими открытыми вкладками, просто копируя-вставляя списки ссылок на файлы по 10 МБ, паук Google может скачивать этот файл со скоростью более 700 Мбит/c. В моем случае, это продолжалось в течение 30-45 минут, до тех пор, пока я не вырубил сервер. Если я все правильно подсчитал, за 45 минут ушло примерно 240GB трафика.

Я удивился, когда увидел объем исходящего трафика. Еще немного, и я думаю, исходящий трафик достиг бы 1 Гбит/с, а входящий 50-100 Мбит/с. Я могу только представить, что произойдет, если несколько атакующих будут использовать этот метод. Паук Google использует не один IP-адрес, и хотя User-Agent всегда один и тот же, редактировать конфиг веб-сервера может быть слишком поздно, если атака застанет жертву врасплох. Благодаря простоте использования, атака легко может продолжаться часами.

Когда обнаружился этот баг, я стал гуглить инциденты с его использованием, и нашел два:
• Статья, где блогер описывает, как случайно атаковал сам себя и получил огромный счет за трафик. [Перевод на хабре – прим. переводчика].
• Другая статья описывает похожую атаку с помощью Google Spreadsheet, но сначала, автор предлагает спарсить ссылки на все файлы сайта и запустить атаку по этому списку с использованием нескольких аккаунтов.

Я нахожу несколько странным, что никто не догадался попробовать добавить к запросу случайный параметр. Даже если на сайте всего один файл, добавление случайного параметра позволяет сделать тысячи запросов к этому сайту. На самом деле, это немного пугает. Простая вставка нескольких ссылок в открытую вкладку браузера не должна приводить к такому.

Вчера я отправил описание этого бага в Google и получил ответ, что это не уязвимость, и не проходит по программе Bug Bounty. Возможно, они заранее знали о нём, и действительно не считают это багом?

Тем не менее, я надеюсь, они пофиксят эту проблему. Просто немного раздражает, что любой может заставить паука Google доставить столько проблем. Простой фикс заключается в том, чтобы скачивать файлы пропуская дополнительные параметры в URL [На мой взгляд, это очень плохой фикс. Возможно, стоит ограничить пропускную способность или лимитировать количество запросов и трафик в единицу времени и при этом не скачивать файлы больше определенного размера – прим. переводчика].

вторник, 18 марта 2014 г.

25.02.2014 - СЕМИНАР - "Покупка трафика в Яндекс.Директ для задач CPA". №1

- Эффективные методики работы с Я.Д. - Как отслеживать эффективность трафика - Как работать в плюс, а не в ноль - Инструменты вебмастера для работы с контекстом