Почему падает посещаемость сайта?

Почему падает посещаемость сайта?

Хорошо известно, что если прекратить постоянно заниматься раскруткой своего сайта, то посещаемость сайта из поисковых систем начинает постепенно падать. Это явление имеет две основные причины:

  • У поисковиков меняются алгоритмы формирования поисковой выдачи. Поэтому старые простые методы оптимизации под ключевые слова и фразы, которые Вы когда-то уже применили, перестают работать. (Правда, есть некоторая вероятность, что при этом какие-нибудь другие страницы Вашего сайта выйдут в ТОП-10 по каким-нибудь совершенно другим запросам.)
  • Ваши конкуренты не дремлют. Даже, если не меняются поисковые алгоритмы, Ваши конкуренты создают более лучшие веб-страницы, чем у Вас, и с более качественным ссылочным ранжированием. А при изменении алгоритмов поисковой выдачи, тем более, они сразу реагируют и проводят нужную работу в направлении улучшения своих позиций в поисковой выдаче по тем запросам, по которым Ваш сайт откатился назад.


Это давным-давно всё понятно.


Но в последнее время очень многие веб-мастера начали наблюдать снижение поискового трафика на свой сайт, даже если они активно занимаются оптимизацией своего сайта под поисковые системы. Причем, речь идет о чисто "белой" оптимизации без всяких покупных ссылок и без накруток поведенческих факторов.


Мало того, идет снижение не только SEO-трафика, но и других видов трафика.


И самое убойное то, что, казалось бы, более удачливые конкуренты, которые обогнали Вас в позициях по поисковой выдачи, тоже жалуются на проседание трафика на свои сайты.


Эта "чума" потихоньку началась примерно в 2012-2013 годах и очень явно усилилась в 2014 году.


У этого явления есть объяснение.


Дело в том, что по сравнению с тем, что было лет 10 назад в 2004 году, у нас в Рунете резко изменилось соотношение между темпами прироста русскоязычных пользователей Интернета и темпами прироста русскоязычных сайтов. Давайте посмотрим на два следующих графика.


Первый график показывает, как происходил рост регистрации доменных имен в зоне RU.



Понятно, что этот график не совсем показывает рост сайтов на русском языке. Ведь есть еще зона SU, а в последние годы и кириллические зоны (РФ и др.). Есть русскоязычные сайты в зонах COM, ORG, INFO, BIZ, NET, UA и в других. Кроме того, часть зарегистрированных доменов не используется под сайты.


Тем не менее, по порядку величины этот график примерно отражает рост числа русскоязычных сайтов, так как подавляющее большинство русскоязычных сайтов всё-таки находится в зоне RU, и подавляющее большинство доменов регистрируется всё-таки для создания сайтов.


А это график того, как примерно в те же самые годы происходил рост российской аудитории Интернета.



Понятно, что этот график тоже учитывает не всю русскоязычную аудиторию. Есть еще Украина, Белоруссия, Казахстан, Израиль, Прибалтика и др. страны с относительно большой долей русскоязычного населения.


Но, тем не менее, большинство русскоязычного населения проживает в России и поэтому данные этого графика можно считать базовыми. В других странах с относительно большой долей русскоязычного населения аудитория Интернете в эти годы тоже росла с небольшим отставанием или опережением от России.


Нас сейчас больше интересует на втором графике плавная кривая красного цвета. Она показывает относительный прирост числа пользователей Интернета в процентном соотношении. Хорошо видно, что эта кривая падает. То есть, хотя число пользователей Интернета всё время растет, но темпы прироста падают.


Понятно, что темпы роста числа пользователей Интернета в России не могут не только расти, но и даже оставаться долгое время постоянными. Дело в том, что у аудитории Интернета есть естественный ограничитель. Это население всей России. Аудитория Интернета в России не может превышать всё население России.


Значит, рано или поздно, но количество пользователей Интернета в России выйдет на насыщение. И дальнейший прирост будет очень мизерным. Он будет связанным с ростом населения России (если, конечно, будет идти этот рост населения).


А вот число сайтов никак не связано с количеством населения России. У одного человека или у одной организации может быть не один сайт, а два, три, десять, двадцать, сто и более. Технология сайтостроения не стоит на месте и позволяет достаточно быстро штамповать всё новые и новые сайты людям, которые достаточно далеки от понимания html-разметки.


Давайте, глядя на эти графики, сравним ситуацию в 2004 и 2012 годах.


В 2004 году российская аудитория Интернета увеличилась примерно на 4 млн. человек. В этом же году было зарегистрировано примерно 0.7 млн. доменов. Грубо говоря, в Интернете появилось примерно 5.7 новых человек на каждый новый сайт.


А в 2012 году российская аудитория Интернета выросла примерно на 6 млн. человек. Но в этом же году было зарегистрировано примерно 4.3 млн. доменов. Поэтому приблизительно имеем, что в Интернете появилось примерно 1.4 новых человек на каждый новый сайт.


Экстраполировав эти графики на 2014 и 2015 год, мы получим, что в 2014 году на каждого нового пользователя Интернета придется примерно один новый сайт. А в 2015 году число новых сайтов превысит число новых российских пользователей Интернета.


Мы имеем вот такую картину, как на этом рисунке.



Это весьма печальное явление.


Оно означает, что даже если Вы развиваете свой сайт в целях получения трафика, то не факт, что Вы получите этот трафик.


В начале нулевых годов посещаемость Вашего сайта могла расти сама собой только за счет увеличения аудитории Интернета. Вы могли со своим сайтом ничего не делать, не увеличивать числа страниц и числа ссылок на сайт. И тем не менее посещаемость Вашего сайта могла расти просто так без всякой видимой причины.


В середине нулевых годов это стало уже не так. Для роста посещаемости своего сайта необходимо было уже развивать сайт. Например, писать новые статьи, оптимизированные под ключевые слова и покупать внешние ссылки.


Примерно в 2010 году добиться стабильного роста посещаемости своего сайта стало возможным при бюджете примерно 10-50 тыс. руб. в месяц в зависимости от тематики сайта.


В 2015 году даже в два раза большие бюджеты могут не дать стабильного роста посещаемости сайта. Сейчас более типичная ситуация, когда сайт на какое-то время вылезает в ТОП-10 по некоторым продвигаемым запросам, а потом опять вылетает из ТОП-10 по этим запросам. Но может через какое-то время войти в ТОП-10 по другим запросам и тоже на время.


Но при этом, даже находясь в ТОП-10, поисковый трафик растет незначительно или даже со временем начинает убывать. А то, что это происходит не только с поисковым трафиком, но и с другими видами трафика (рассылки, социальные сети, электронные книги, контекстная реклама и др.), это говорит о том, что причина не столько в плохой или хорошей оптимизации сайта под поисковые запросы, сколько в нехватке пользователей Интернета.


Представьте себе, что в Вашей нише за какой-то период появилось 1000 новых сайтов, которые сразу не сдохли по причине того, что у их веб-мастеров самые серьезные намерения. Каждый из таких сайтов без особого труда получит поисковый трафик 1-2 посетителя в день. Итого, они оттянут на себя из поисковых систем 1-2 тысячи посетителей.


За это же время Интернет пополнится новыми посетителями, которым интересна эта тематика, например, на 800 человек. Значит реально все остальные сайты, которые существовали в этой теме раньше, недополучат 200-1200 посетителей в сутки.


Таким образом, всем остальным веб-мастерам тех сайтов, которые существовали ранее, придется проделать такую работу по оптимизации своих сайтов, чтобы получить дополнительно совокупный трафик на 200-1200 посетителей в сутки. И это только для того, чтобы не потерять свой совокупный трафик.


Как говорила Черная Королева из "Алиса в Зазеркалье": "Нужно будет бежать в два раза быстрее только для того, чтобы хотя бы остаться на месте".


Но откуда возьмется этот дополнительный трафик в 200-1200 человек в день на эти старые сайты? Только из смежных тематик!


Но в смежных областях та же самая картина. Туда тоже лезут новые сайты, которые откусывают свою долю трафика. И веб-мастерам старых сайтов приходится тоже бежать в два раза быстрее, чтобы хотя бы оставаться на месте.


Так что трафика по любому на всех не хватит. Даже на тех, кто активно борется за него.


Что будет дальше?


Есть два варианта дальнейшего развития событий.


Первый вариант. Будет всё больше и больше увеличиваться количество качественных сайтов, которые раскручиваются "белыми" методами.


В этом случае выход сайта в ТОП-10 поисковой выдачи станет всё более и более случайным. Огромное количество сайтов будут хорошими и достойными быть на первых позициях в поисковой выдаче. В этом случае станут важными очень-очень незначительные факторы определять, почему один сайт имеет позиции лучше другого.


Это как в большом спорте. Все спортсмены на соревнованиях большого спорта примерно одного уровня. Но один прибежал к финишу на доли секунды быстрее второго. Почему так получилось? Это чистая случайность.


Второй вариант. Рост числа сайтов тоже выйдет на насыщение.


Сейчас ничего не стоит очень быстро получить бесплатный трафик новому сайту из 10-20 веб-страниц в размере 2-4 посетителя в день практически в любой тематике. Это часто приводит начинающих веб-мастеров к заблуждению, что также бесплатно через какое-то небольшое время они смогут получить трафик 100-200 посетителей в день.


Такой трафик получить можно, но уже не бесплатно. Или бесплатно, но не за год, а за 3-4 года.


Но первые успехи приводят к тому, что начинающий веб-мастер начинает изучать SEO-тематику и "колдовать" над своим сайтом. А лет через 5 бросить свой сайт уже трудно. Уже на него потрачено много сил, времени и денег. А сайт уже откусывает свою долю трафика, у кого-то 20-40 посетителей в день, а у кого-то 200-400 посетителей.


Когда ситуация такая, что в течение полугода у сайта нулевая посещаемость при том, что сайт активно развивают, тогда веб-мастер крепко задумывается, а стоит ли продолжать это дело. В такой ситуации рост числа новых сайтов замедлится и число сайтов в Рунете выйдет на насыщение.


А если число сайтов будет еще и сокращаться, то трафик на остальные сайты еще и увеличится.


Думаю, что лет через 5 ситуация уже полностью прояснится, какой из вариантов реализуется.


Хомячковый рай. Уйти и потеряться:

XENU - сыщик битых ссылок на сайте

XENU - сыщик битых ссылок на сайте

Данный пост опубликован в разделе "Раскрутка сайта", а не "СайтоСтроение", так как тематика битых ссылок имеет больше отношение к раскрутке сайта. Потому что, чем больше на сайте битых ссылок, тем хуже отношение к сайту поисковых систем.


Поисковики не любят, когда сайт ссылается на несуществующие вебстраницы и на несуществующие сайты. Одна из причин такой нелюбви заключается в том, что поисковым системам приходится затрачивать некоторые свои ресурсы впустую.


Во-первых, поисковый бот переходит по ссылке и видит, что там нет никакого контента. Во-вторых, он в следующий раз тоже перейдет по этой битой ссылке, в надежде, что на этот раз там появился какой-то контент. В-третьих, поисковый паук, обнаружив битую ссылку на какую-то страницу какого-то сайта, должен пометить в поисковой базе данных, чтобы эту ссылку не сайт не учитывали в ссылочном ранжировании. Или он должен проверить, что эта ссылка уже не учитывается.


Это всё ресурсозатратные действия. Сайт, который наполнен массой битых ссылок, реже посещается поисковыми ботами, чтобы не тратить зря драгоценное время бота.


А кроме того, такой сайт понижается в поисковой выдаче. Это происходит из-за того, что поисковик наличие множества битых ссылок понимает как признак того, что веб-мастер забросил этот сайт и уже не поддерживает его. А это признак того, что на сайте находится старая неактуальная информация.


Наличие множества битых ссылок также для поисковика может быть свидетельством того, что данный сайт разрабатывает неопытный веб-мастер. К такому сайту может быть со стороны поисковой системы более строгое отношение.


Пока Ваш сайт маленький и существует всего один год, как правило, веб-мастер может сам раз в месяц обойти все страницы своего сайта и покликать мышкой по всем ссылкам, чтобы убедиться, что они все рабочие. Но если сайт за несколько лет своего существования оброс уже несколькими сотнями страниц, то делать ежемесячно такую процедуру становится уже достаточно затруднительно.


Рекомендую для поиска битых ссылок на своем сайте использовать бесплатную очень полезную программу Xenu's Link Sleuth. Она делает поиск как внутренних битых ссылок, которые с одной страницы Вашего сайта ведут на несуществующие страницы Вашего сайта, так и исходящих битых ссылок, которые со страниц Вашего сайта ссылаются на несуществующие страницы других сайтов и на несуществующие другие сайты.


Программа Xenu's Link Sleuth занимается поиском не только битых ссылок. Она находит на страницах Вашего сайта несуществующие картинки, фоновые рисунки (backgrounds), фреймы, дополнительные модули (plug-ins), графические карты сайта (local image maps), таблицы стилей (style sheets), скрипты и Java-апплеты. Программа создает отчет, в который выводит список проверенных ссылок с сортировкой по различным параметрам.


Преимущества программы Xenu's Link Sleuth:

  • Можно повторно проверить битые ссылки и тем самым найти такие ссылки, которые на самом деле не битые а рабочие, но были распознаны при первой проверки как битые из-за того, что сайт, на который ссылалась ссылка, был временно недоступен.
  • Можно проверить защищенные сайты по протоколу SSL ("https://").
  • Программа распознает и выводит в отчет редиректы, которые пересылают пользователя другие страницы.
  • Можно создать карту проверяемого сайта.
  • Программа полностью бесплатная.


Недостатки программы

  • Нет русскоязычного интерфейса.
  • На момент написания этого поста последняя версия программы работала только под операционной системой Windows-7 и всеми предыдущими Windows. Не работает под Windows-8. (Хотя в тот момент, когда Вы будете читать этот пост, возможно, на сайте разработчика уже будут более свежие версии программы для новых версий Windows. Перейти на сайт разработчика можно в самой программе в разделе Help и далее пункт About Xenu.)


После установки программы и её запуска Вам нужно зайти в меню File ---> Check URL. Там откроется следующее окошко.



В первой строке ввода Вы пишите адрес сайта, который необходимо проверить на наличие битых ссылок. Если адрес сайта заканчивается названием папки, то нужно поставить в конце строки символ "/". Иначе будет идти проверка всей родительской папки.


Далее можно заполнить еще следующие настройки:

  • Local file - выбрать для проверки сохраненную на диске компьютера веб-страницу.
  • Check external links - дополнительно к внутренним ссылкам будут проверяться еще и все внешние ссылки.
  • Consider URL's beginning with this as "internal" - добавить список ссылок, которые программа будет считать внутренними ссылками. Можно или в строке указать общий шаблон и/или чуть ниже ввести эти ссылки по отдельности. Ввод каждой такой ссылки должен завершаться нажатием на кнопку "Add".
  • Do not check any URL's beginning with this - добавить список таких ссылок или разделов сайта, которые не нужно проверять. Также можно или ввести адрес раздела, который не надо проверять и/или вводить список адресов и ссылок. Ввод каждой такой ссылки должен завершаться нажатием на кнопку "Add".
  • More options - открыть окно с дополнительными настройками.


Потом жмем на кнопку "ОК" и ждем от нескольких секунд до нескольких часов, в зависимости от размера Вашего сайта.


На экране появится полный список всех найденных на сайте ссылок. Каждая ссылка выделяется своим цветом:

  • Зеленый цвет - ссылка доступна.
  • Красный цвет - битая ссылка или ссылка временно недоступна.
  • Серый цвет - ссылка пока еще стоит в очереди на проверку или она была исключена из проверки в настройках пользователя перед запуском проверки.


При завершении работы программы Xenu's Link Sleuth в самом низу окна программы будет написано слово Ready и справа в этой же строке будет показано общее количество найденных и обработанных ссылок и время, которое было затрачено на эту проверку.


Одновременно с окончанием проверки появляется окошко, которое спрашивает Вас делать ли отчет. Советую сделать отчет, так как он более удобен для изучения. В отчете всё отсортировано очень удобно, а не в том порядке, в котором Вы видите на экране (это порядок в котором шла проверка). Кроме того, в отчете Вам показывается не только битая ссылка, но и веб-страница, где эта ссылка была найдена. Отчет появляется в Вашем браузере, который используется по умолчанию.


В заключение несколько слов о дополнительных настройках программы Xenu's Link Sleuth. Перед запуском на проверку Вы можете нажать кнопку "More Options..." в левом нижнем углу (см. картинку выше). После чего появляется следующее окно с дополнительными полезными настройками.



Здесь можно поиграть со следующими параметрами:

  • Parallel Threads - это число параллельно запрашиваемых страниц. Рекомендую ставить 1-4. Если поставите слишком большое число, то будет очень большая нагрузка на сервер. Это снизит скорость выполнения программы.
  • Ask for password or certificate when needed - при необходимости запрашивать пароли и сертификаты. Данная настройка используется для защищенных сайтов и защищенных паролями разделов.
  • Treat redirections as errors - считать все редиректы на сайте ошибками. Применяется, когда Вы точно знаете, что у Вас не должно быть никаких редиректов.
  • Report - информация, которую необходимо выводить в отчет. Можно указывать пункты согласно изображению на рисунке.
  • Broken links, ordered by links - показывать битые ссылки, отсортированные по адресу ссылки.
  • Broken links, ordered by page - показывать битые ссылки, отсортированные по адресу страницы, на которой они находятся.
  • Broken local links - показывать битые локальные ссылки.
  • Redirected URLs - показывать ссылки с редиректами.
  • Site Map - создать карту сайта на HTML. (Имейте в виду, что если на сайте очень много страниц, то отчет может очень долго формироваться.)
  • Statistics - выводить в отчет различную статистическую информацию.


Хомячковый рай. Уйти и потеряться:

Уникализация картинок на сайте

Уникализация картинок на сайте

Когда нужно опубликовать на своем сайте чужую статью, то делается глубокий рерайтинг этой статьи. Глубокий рерайтинг, это по существу, полный пересказ статьи своими словами. Только при глубоком рерайте получается практически 100% уникальности статьи.


Но мало кто знает, что уникализировать можно не только тексты, но и позаимствованные картинки и фотографии. Такая уникализация улучшает поиск сайта не по текстовым ключевым фразам, а по картинкам. Кроме того, уникализация требуется при размещении фотографий на многих сайтах объявлений, типа Авито. Есть еще масса случаев, когда Вам может потребоваться сделать какую-нибудь фотографию уникальной.


Сразу замечу, что здесь под словом уникализация понимается не создание такой уникальной фотографии из чужой фотографии, что автор фотографии не узнает свою фотографию. Ни в коем случае нет! И цель этого поста ни в коем случае не заключается в описании методов нарушения авторских прав или присвоения авторских прав.


Цель этого поста, показать методы уникализации картинок только для поисковых систем. Если Вы данными методами уникализируете какую-то фотографию, то автор этой фотографии всё равно узнает своё творение. Поэтому, если автор фотографии обратится к Вам с требованием убрать со своего сайта свою переделанную фотографию, то нужно незамедлительно это сделать и не вступать в дискуссию с автором по поводу того, что Ваша фотография отличается от его фотографии.


В отличие от человека, возможности поисковых систем по различению двух фотографий довольно ограничены. Поэтому практически любую скаченную в Интернете картинку можно чуть-чуть переделать так, что зрительно картинка вроде бы почти не изменилась, а поисковые системы посчитают её совершенно уникальной. Поисковые системы смотрят на бинарный код картинок, размещенных в Интернете. Поэтому картинки нужно переделывать так, чтобы достаточно существенно изменился бинарный код файла картинки.


Понятно, что такие преобразования бинарного кода картинки можно сделать только в каком-нибудь растровом редакторе картинок, типа PhotoShop или Gimp. Все дальнейшие примеры в этой статье приводятся для ФотоШопа.


Чем больше Вы примените методов, перечисленных здесь, тем лучше, тем более уникальная получится картинка с точки зрения поисковой системы. Применение какого-то одного или двух методов может недостаточно уникализировать картинку. Здесь работает аналогия с рерайтом. Чем больше переработка картинки, тем лучше для уникальности.



Пропорциональное изменение размеров картинки


Этот способ практически не работает, когда Вы пропорционально изменяете размеры картинки. Поисковики не считают такие картинки уникальными. Но этот способ можно применять как дополнительный способ к другим, если других способов оказалось очень мало. Чтобы картинка не теряла качество, её размеры нужно только уменьшать.


В PhotoShop заходим в меню Image и выбираем Image Size.



Непропорциональное изменение размеров картинки


Часто на картинке изображение такое, что картинку можно растянуть или сжать по горизонтали или по вертикали. Этот способ проходит для изображения узоров, орнаментов, схем, фракталов, текстур, текстов, абстрактных картин и т.п. Но небольшие растяжения и сжатия поисковики распознают как неуникальные. Поэтому, если нет возможности сделать сильные растяжения и сжатия, то этот способ применяет только как дополнительный.


В PhotoShop заходим в меню Image и выбираем Image Size. Там снимем галочку с пункта Constrain Proportions.


Зеркальное отражение картинки


Очень хорошо метод зеркального отражения подходит для фотографий природных ландшафтов, фотографий далеких городов. Многие фотографии астрономических объектов можно отражать и по вертикали и по горизонтали, так как в космосе нет ни верха, ни низа. Фотографии местности с высоты птичьего полета также можно отражать и по горизонтали и по вертикали. Метод подходит для схем и планов без надписей, для фотографий на белом фоне предметов, которые могут находиться в разных положениях (авторучки, молоток, гвозди, камни и т.п.).


Метод не подходит для фотографий с изображениями текстов (вывески магазинов, надписи на оргтехники, на консервных банках и т.п.), с изображениями циферблатов часов, а также с изображением глобусов и географических карт. Вертикальное отражение не подходит для предметов с четким позиционированием в пространстве (человек, дом, машина, мебель, станки и т.п.).


Горизонтальное отражение может не подойти для фотографий людей, которые держат в руках оружие, столовые приборы, музыкальные инструменты, пожимают друг другу руки или у них хорошо видны пуговицы на одежде.


В PhotoShop заходим в меню Image, выбираем Image Rotation и там выбираем или Flip Canvas Horizontal или Flip Canvas Vertical, в зависимости от того, какое отражение нужно, горизонтальное или вертикальное.



Поворот картинки


Очень многие фотографии предметов на белом фоне можно поворачивать на значительные углы, в том числе и на 90 градусов, например, изображения мяча, молотка, ножниц, тапочек, платков и т.п.


Если Вы имеете дело с фотографиями природы, растений, животных, то повороты можно сделать только на ограниченное количество градусов, как правило не более 3-5 градуса по часовой или против часовой стрелки.


Метод не подходит для фотографий на которых есть изображения городских улиц, квартирных интерьеров, стоящих людей, телеграфных столбов, некоторых фонтанов и т.п.


В PhotoShop заходим в меню Image, выбираем Image Rotation и там выбираем Arbitrary, где задаем направление поворота и угол.



Обрезание картинки


Часто на чужой картинки бывают или очень широкие поля или просто на картинке есть много разных объектов, а Вам нужен только какой-то один предмет. Тогда можно вырезать прямоугольник с нужным Вам объектом.


В ФотоШопе обрезание картинки делается инструментом Crop. Он вызывается нажатием клавиши с буквой ”c” или ищите его в окне Tools.



Вырезание объекта


Очень сильной уникализацией будет, если Вы сумеете вырезать нужный объект из фотографии и перенести его на белый фон или в какую-нибудь другую фотографию. Метод подходит опытным пользователям ФотоШопа и может оказаться весьма трудоемким и длительным по времени, если Вы хотите сделать очень качественную вырезку.


В ФотоШопе есть много самых разных инструментов для того, чтобы вырезать объект с неровными краями.



Изменение яркости и контрастности


Часто бывает так, что небольшое изменение яркости и контрастности улучшает зрительное восприятие изображения. Например, если это фотография, то усиление контрастности на 10%-20%, как правило, улучшает её восприятие. С яркостью тоже можно поэкспериментировать в пределах 10%-20%, как в сторону усиления яркости, так и в сторону ослабления яркости.


Не рекомендуется использовать этот метод на таких фотографиях, где есть человеческие лица. Для некоторых людей восприятие лиц будет очень неестественным, хотя для Вас восприятие этих лиц может показаться в пределах нормы.


В PhotoShop заходим в меню Image, выбираем Adjustments и далее выбираем пункт Brightness/Contrast.



Изменения цветовых каналов


Этот метод тоже не рекомендуется применять на фотографиях с человеческими лицами. Вы можете не заметить, а другим людям может показаться, что у Вас на фотографии человеческие лица стали неестественно бледными или неестественно красными. То же самое относится и к фотографиям, где есть изображения объектов с естественными цветами, например, трава и листья, голубое небо, белый лист бумаги, черная нефть и т.п.


Метод хорошо работает там, где есть изображения таких объектов, которые могут быть окрашены в разные цвета. Например, автомобили, мебель, канцелярские товары, одежда, обувь, игрушки и т.п. Но такое изменение оттенков недопустимо, если Вам нужны фотографии для Вашего интернет-магазина (особенно по продаже одежды и обуви).


В PhotoShop заходим в меню Image, выбираем Adjustments и далее выбираем пункт Color Balance.



Изменение имени файла


Обязательно измените имя сохраняемого файла. Отдельно от всех остальных этот метод не работает, так как не меняет бинарный код файла. Но и оставлять старое название ни в коем случае нельзя.


Особенно нельзя оставлять старое имя файла, если название файла очень оригинальное, например, набор из 15 случайных цифр и букв. Как правило, такие имена файлам дают не люди, а программы движков сайтов для уникализации имен картинок. Робот поисковика, встретив два файла с таким одинаковым длинным названием, может отправить эти картинки на ручную модерацию живым человеком. А живой человек, конечно же, сразу заметит, что Ваша картинка, это всего лишь слегка подправленная оригинальная картинка и поэтому Вашу картинку не следует индексировать.


В меню ФотоШопа выбираем File и затем Save As.



Изменение типа графического файла


Это тоже такой метод, который отдельно от всех других не работает. Его надо применять только в качестве дополнительного метода. Дело в том, что у поисковых систем есть конверторы, которые могут конвертировать между собой все три формата файлов картинок в Интернете: JPG, GIF и PNG.


В меню ФотоШопа выбираем File и затем Save As. Перед сохранением выбираем тип файла JPEG или CompuServe GIF или PNG.



Изменение метаданных фотографий


Наконец, последнее, что нужно сделать, это сменить метаданные фотографии. В метаданных фотографии может содержаться такая информация, как дата и время фотографирования, название фотоаппарата или сканера, имя автора, комментарии, название картинки, тема, ключевые слова, самые разные данные фотоаппарата и режима фотосъемки, а также версия EXIF.


Лучше эти данные не просто стереть, а заменить на свои. Причем, лучше всего указать там очень оригинальные данные. Например, можно указать несуществующую марку фотокамеры и несуществующее название фотоаппарата (или сканера). В этом случае, если Вашу картинку скопируют с Вашего сайта и не изменят метаданные, то поисковые системы будут считать, что оригинал картинки находится на Вашем сайте.


Обратите внимание на такой момент. Если фотография создана фотоаппаратом, то дату и время фотосъемки Вы должны поменять точь-в-точь на такие, которые совпадает с датой и временем создания файла. У Вас при сохранении файла дата и время создания файла становятся более поздними. Но никогда не бывает так, чтобы дата фотографирования не совпадала с датой создания файла. Поэтому нужно обязательно сменить дату и время фотографирования. Это если Вы хотите создать впечатление, что это необработанная фотография.


Также можно откатить дату в операционной системе Вашего компьютера на несколько лет назад и сохранить файл и дату фотосъемки достаточно старыми. Поисковая система при определении, какая фотография оригинальная, конечно же, не смотрит, насколько старая дата у файла, так как можно подделать любую дату. Но если Вашу картинку скопируют на другой сайт, то совпадение даты и времени фотосъемки с точностью до минуты укажет поисковику, что именно Ваша картинка оригинальная.


Метаданные картинки можно изменить без всяких графических редакторов прямо в операционной системе Windows, начиная с операционки Windows XP и следующими. Для этого в Проводнике кликаете на файле правой кнопкой мышки и в выскочившем контекстном меню переходите на пункт “Свойства”. Там переходите на вкладку ”Подробно”. В левой колонке ”Значение” редактируете нужные Вам значения и потом обязательно нажмите внизу на кнопку ”Применить”, затем “ОК”.



Надеюсь, что эти 11 методов помогут Вам уникализировать картинки с чужих сайтов для размещения их на своем сайте и сделать так, чтобы картинки, скопированные на другие сайты с Вашего сайта, поисковики считали копиями Ваших картинок.



Для более глубокого начального изучения ФотоШопа можете скачать эти бесплатные учебные курсы. А для эффективного применения PhotoShop в интернет-бизнесе смотрите самые лучшие видеоуроки Фотошопа на русском языке.


Хомячковый рай. Уйти и потеряться:



Прыг: 01 02 03 04 05 06 07