суббота, 17 октября 2015 г.
Кинза 2015 (Kinza) все видео с конфы
Кинза 2015 арбитраж без CPA Kinza
Кинза 2015 информационные сайты Kinza
Кинза 2015 плохие и хорошие кейсы kinza
Кинза 2015 монетизация Инстаграм Kinza
Кинза 2015 (Kinza) монетизация офферов контекстной рекламой
пятница, 6 июня 2014 г.
Как изменить адрес входа в админ-панель WordPress (wp-login.php на что-нибудь другое)
Для того, чтобы переименовать файл wp-login.php (тем самым изменить страницу входа) вам потребуется:
После этих несложных манипуляций адресная строка входа в панель администратора изменится с http://site.ru/wp-login.php на http://site.ru/123-qwe.php
- Измените название файла wp-login.php на свое (например, 123-qwe.php)
- Скопируйте это название, откройте переименованный файл 123-qwe.php и с помощью текстового редактора замените все слова wp-login.php на 123-qwe.php.
- Откройте файл wp-includes/general-template.php и также произведите замену всех wp-login.php на 123-qwe.php.
После этих несложных манипуляций адресная строка входа в панель администратора изменится с http://site.ru/wp-login.php на http://site.ru/123-qwe.php
суббота, 26 апреля 2014 г.
Полезные инструменты и ссылочки на них от Димы Берга
Xseo.in - пожалуй один из самых моих любимых сервисов по аналитике. Смотрим ТИЦ, whois, PR и другие параметры.
Cy-pr.com - тоже самое, где мне приглянулось именно удобство предоставления информации, но нужна регистрация.
Megaindex - конечно, показывает не всю информацию, но в общем можно сделать выводы о ссылочной базе.
LinkPad.ru — бывшее название Solomono. Также дает наиболее полную информацию о ссылках, но стоит учесть, что история хранится очень старая, поэтому база не всегда актуальна на текущий момент для каждого сайта.
MegaIndex (видимость сайта) — сервис собирает информацию по большему количеству сайтов и может показать очень достоверную информацию по трафикодающим ключам.
Spyonweb.com — можно найти сеть сайтов одного человека по коду Adsense. Не работает, если владелец прячет код в js.
2ip.ru - иногда интересно посмотреть, как каком движке сделан тот или иной сайт.
archive.org — очень полезный сервис, с помощью которого можно посмотреть историю домена, если вы только начинаете делать сайт.
nic.ru — наиболее удобный, на мой взгляд, сервис по подбору домена.
http://www.domainsbot.com/ — еще один удобный сервис по подбору домена.
xtool.ru — агрегатор многих сервисов, который очень хорошо показывает, насколько хорошо «себя чувствует» сайт в Яндексе. Пример, xt=2, значит на сайте проблемы, xt=5 сайт хорош, xt=8 сайт имеет очень высокий траст и, скорее всего, занимает высокие позиции в выдаче и не дает проходу конкурентам. По графикам часто можно узнать, когда на сайте фильтр.
pingdom.com — иногда проблема долгой загрузки сайта именно в самом сайте, а не в хостинге. Сервис покажет, какие элементы сайта создают проблемы.
pelewin.ru — создатель сервиса http://pelewin.ru/li. С помощью этого инструмента можно найти молодые сайты с большим количеством трафика.
http://quirktools.com/ — проверяем как выглядит сайт на устройствах с различным разрешением.
http://dimaberg.ru/poleznye-servisy
Как найти идею для сайта. Онлайн база
Cy-pr.com - тоже самое, где мне приглянулось именно удобство предоставления информации, но нужна регистрация.
Megaindex - конечно, показывает не всю информацию, но в общем можно сделать выводы о ссылочной базе.
LinkPad.ru — бывшее название Solomono. Также дает наиболее полную информацию о ссылках, но стоит учесть, что история хранится очень старая, поэтому база не всегда актуальна на текущий момент для каждого сайта.
MegaIndex (видимость сайта) — сервис собирает информацию по большему количеству сайтов и может показать очень достоверную информацию по трафикодающим ключам.
Spyonweb.com — можно найти сеть сайтов одного человека по коду Adsense. Не работает, если владелец прячет код в js.
2ip.ru - иногда интересно посмотреть, как каком движке сделан тот или иной сайт.
archive.org — очень полезный сервис, с помощью которого можно посмотреть историю домена, если вы только начинаете делать сайт.
nic.ru — наиболее удобный, на мой взгляд, сервис по подбору домена.
http://www.domainsbot.com/ — еще один удобный сервис по подбору домена.
xtool.ru — агрегатор многих сервисов, который очень хорошо показывает, насколько хорошо «себя чувствует» сайт в Яндексе. Пример, xt=2, значит на сайте проблемы, xt=5 сайт хорош, xt=8 сайт имеет очень высокий траст и, скорее всего, занимает высокие позиции в выдаче и не дает проходу конкурентам. По графикам часто можно узнать, когда на сайте фильтр.
pingdom.com — иногда проблема долгой загрузки сайта именно в самом сайте, а не в хостинге. Сервис покажет, какие элементы сайта создают проблемы.
pelewin.ru — создатель сервиса http://pelewin.ru/li. С помощью этого инструмента можно найти молодые сайты с большим количеством трафика.
http://quirktools.com/ — проверяем как выглядит сайт на устройствах с различным разрешением.
http://dimaberg.ru/poleznye-servisy
19.03.2014 - СЕМИНАР - "Нюансы работы с CPA сетями в 2014 году". Часть 2
- Источники трафика
- Рекламодатели
- Инструменты конвертации
- Как добиться высокой конверсии
- Когда возможен высокий ROI
среда, 23 апреля 2014 г.
пятница, 18 апреля 2014 г.
DDOS любого сайта с помощью Google Spreadsheet
Google использует своего «паука» FeedFetcher для кэширования любого контента в Google Spreadsheet, вставленного через формулу =image(«link»).
Например, если в одну из клеток таблицы вставить формулу
=image("http://example.com/image.jpg")
Google отправит паука FeedFetcher скачать эту картинку и закэшировать для дальнейшего отображения в таблице.
Однако если добавлять случайный параметр к URL картинки, FeedFetcher будет скачивать её каждый раз заново. Скажем, для примера, на сайте жертвы есть PDF-файл размером в 10 МБ. Вставка подобного списка в таблицу приведет к тому, что паук Google скачает один и тот же файл 1000 раз!
=image("http://targetname/file.pdf?r=1")
=image("http://targetname/file.pdf?r=2")
=image("http://targetname/file.pdf?r=3")
=image("http://targetname/file.pdf?r=4")
...
=image("http://targetname/file.pdf?r=1000")
Все это может привести к исчерпанию лимита трафика у некоторых владельцев сайтов. Кто угодно, используя лишь браузер с одной открытой вкладкой, может запустить массированную HTTP GET FLOOD-атаку на любой веб-сервер.
Атакующему даже необязательно иметь быстрый канал. Поскольку в формуле используется ссылка на PDF-файл (т.е. не на картинку, которую можно было бы отобразить в таблице), в ответ от сервера Google атакующий получает только N/A. Это позволяет довольно просто многократно усилить атаку [Аналог DNS и NTP Amplification – прим. переводчика], что представляет серьезную угрозу.
С использованием одного ноутбука с несколькими открытыми вкладками, просто копируя-вставляя списки ссылок на файлы по 10 МБ, паук Google может скачивать этот файл со скоростью более 700 Мбит/c. В моем случае, это продолжалось в течение 30-45 минут, до тех пор, пока я не вырубил сервер. Если я все правильно подсчитал, за 45 минут ушло примерно 240GB трафика.
Я удивился, когда увидел объем исходящего трафика. Еще немного, и я думаю, исходящий трафик достиг бы 1 Гбит/с, а входящий 50-100 Мбит/с. Я могу только представить, что произойдет, если несколько атакующих будут использовать этот метод. Паук Google использует не один IP-адрес, и хотя User-Agent всегда один и тот же, редактировать конфиг веб-сервера может быть слишком поздно, если атака застанет жертву врасплох. Благодаря простоте использования, атака легко может продолжаться часами.
Когда обнаружился этот баг, я стал гуглить инциденты с его использованием, и нашел два:
• Статья, где блогер описывает, как случайно атаковал сам себя и получил огромный счет за трафик. [Перевод на хабре – прим. переводчика].
• Другая статья описывает похожую атаку с помощью Google Spreadsheet, но сначала, автор предлагает спарсить ссылки на все файлы сайта и запустить атаку по этому списку с использованием нескольких аккаунтов.
Я нахожу несколько странным, что никто не догадался попробовать добавить к запросу случайный параметр. Даже если на сайте всего один файл, добавление случайного параметра позволяет сделать тысячи запросов к этому сайту. На самом деле, это немного пугает. Простая вставка нескольких ссылок в открытую вкладку браузера не должна приводить к такому.
Вчера я отправил описание этого бага в Google и получил ответ, что это не уязвимость, и не проходит по программе Bug Bounty. Возможно, они заранее знали о нём, и действительно не считают это багом?
Тем не менее, я надеюсь, они пофиксят эту проблему. Просто немного раздражает, что любой может заставить паука Google доставить столько проблем. Простой фикс заключается в том, чтобы скачивать файлы пропуская дополнительные параметры в URL [На мой взгляд, это очень плохой фикс. Возможно, стоит ограничить пропускную способность или лимитировать количество запросов и трафик в единицу времени и при этом не скачивать файлы больше определенного размера – прим. переводчика].
Например, если в одну из клеток таблицы вставить формулу
=image("http://example.com/image.jpg")
Google отправит паука FeedFetcher скачать эту картинку и закэшировать для дальнейшего отображения в таблице.
Однако если добавлять случайный параметр к URL картинки, FeedFetcher будет скачивать её каждый раз заново. Скажем, для примера, на сайте жертвы есть PDF-файл размером в 10 МБ. Вставка подобного списка в таблицу приведет к тому, что паук Google скачает один и тот же файл 1000 раз!
=image("http://targetname/file.pdf?r=1")
=image("http://targetname/file.pdf?r=2")
=image("http://targetname/file.pdf?r=3")
=image("http://targetname/file.pdf?r=4")
...
=image("http://targetname/file.pdf?r=1000")
Все это может привести к исчерпанию лимита трафика у некоторых владельцев сайтов. Кто угодно, используя лишь браузер с одной открытой вкладкой, может запустить массированную HTTP GET FLOOD-атаку на любой веб-сервер.
Атакующему даже необязательно иметь быстрый канал. Поскольку в формуле используется ссылка на PDF-файл (т.е. не на картинку, которую можно было бы отобразить в таблице), в ответ от сервера Google атакующий получает только N/A. Это позволяет довольно просто многократно усилить атаку [Аналог DNS и NTP Amplification – прим. переводчика], что представляет серьезную угрозу.
С использованием одного ноутбука с несколькими открытыми вкладками, просто копируя-вставляя списки ссылок на файлы по 10 МБ, паук Google может скачивать этот файл со скоростью более 700 Мбит/c. В моем случае, это продолжалось в течение 30-45 минут, до тех пор, пока я не вырубил сервер. Если я все правильно подсчитал, за 45 минут ушло примерно 240GB трафика.
Я удивился, когда увидел объем исходящего трафика. Еще немного, и я думаю, исходящий трафик достиг бы 1 Гбит/с, а входящий 50-100 Мбит/с. Я могу только представить, что произойдет, если несколько атакующих будут использовать этот метод. Паук Google использует не один IP-адрес, и хотя User-Agent всегда один и тот же, редактировать конфиг веб-сервера может быть слишком поздно, если атака застанет жертву врасплох. Благодаря простоте использования, атака легко может продолжаться часами.
Когда обнаружился этот баг, я стал гуглить инциденты с его использованием, и нашел два:
• Статья, где блогер описывает, как случайно атаковал сам себя и получил огромный счет за трафик. [Перевод на хабре – прим. переводчика].
• Другая статья описывает похожую атаку с помощью Google Spreadsheet, но сначала, автор предлагает спарсить ссылки на все файлы сайта и запустить атаку по этому списку с использованием нескольких аккаунтов.
Я нахожу несколько странным, что никто не догадался попробовать добавить к запросу случайный параметр. Даже если на сайте всего один файл, добавление случайного параметра позволяет сделать тысячи запросов к этому сайту. На самом деле, это немного пугает. Простая вставка нескольких ссылок в открытую вкладку браузера не должна приводить к такому.
Вчера я отправил описание этого бага в Google и получил ответ, что это не уязвимость, и не проходит по программе Bug Bounty. Возможно, они заранее знали о нём, и действительно не считают это багом?
Тем не менее, я надеюсь, они пофиксят эту проблему. Просто немного раздражает, что любой может заставить паука Google доставить столько проблем. Простой фикс заключается в том, чтобы скачивать файлы пропуская дополнительные параметры в URL [На мой взгляд, это очень плохой фикс. Возможно, стоит ограничить пропускную способность или лимитировать количество запросов и трафик в единицу времени и при этом не скачивать файлы больше определенного размера – прим. переводчика].
вторник, 18 марта 2014 г.
25.02.2014 - СЕМИНАР - "Покупка трафика в Яндекс.Директ для задач CPA". №1
- Эффективные методики работы с Я.Д.
- Как отслеживать эффективность трафика
- Как работать в плюс, а не в ноль
- Инструменты вебмастера для работы с контекстом
Подписаться на:
Сообщения (Atom)