воскресенье, 26 августа 2012 г.
пятница, 24 августа 2012 г.
[PHP] Не работает получение данных с веба через cURL, file_get_contents
Вот столкнулся с такой проблемой как сабж.
Любые запросы типа file_get_contents("http://ya.ru/") возвращают пустой результат. Запрос через cURL так же пусто. Перерыл кучу сайтов -- везде совет в php.ini проверить параметры:
На гентушном форуме нашел в одном из постов нашел простое и правильное решение: пересобрать php с отключенным флагом USE= -curlwrappers либо если из исходников собираем, то с ключом --without-curlwrappers
Любые запросы типа file_get_contents("http://ya.ru/") возвращают пустой результат. Запрос через cURL так же пусто. Перерыл кучу сайтов -- везде совет в php.ini проверить параметры:
allow_url_fopen = Onно это мне не помогло...
allow_url_include = Off
user_agent="Mozilla/5.0"
default_socket_timeout = 60
На гентушном форуме нашел в одном из постов нашел простое и правильное решение: пересобрать php с отключенным флагом USE= -curlwrappers либо если из исходников собираем, то с ключом --without-curlwrappers
[PHP] Отправляем POST запрос через file_get_contens
Чтобы получить содержимое веб-страницы все с удовольствием используют
file_get_contents(), например
file_get_contents('http://www.habrahabr.ru/'). Но я уже давно наблюдаю,
что, как дело доходит до того, чтобы отправить POST, разработчики
используют либо CURL, либо открывают сокеты. Я не считаю, что это плохо или что не надо так делать, просто для решения простых задач можно использовать простые решения.
среда, 1 августа 2012 г.
.htaccess -- записки-коротыши
Время от времени встречаются полезные примеры записей для .htaccess, но поскольку зачастую они находятся на разных сайтах, то через некоторое время линк теряется/забывается/забивается :) Вот для таких целей я и хочу завести такой пост, чтобы полезности не затерялись на бездонных просторах жесткого диска :)
Далее под катом
Далее под катом
Подписаться на:
Сообщения (Atom)