Спасибо огромное, что нашли время все это расписать.
Алгоритмически как все это происходит я понимаю, так как все это давно делалось при помощи голого PHP в редакторе FAR.
Нашел способ приколистов:
+++
Create an exposed filter. View the html with firebug or a similar extension, then copy the html for the form that submits the exposed filter. Remove all the selection options so you're left with just the submit button, and rename it to something like "Refresh view". Take this html and put it into a header (make sure to set the mode to full html). Voila, Refresh on Demand Form.
+++
Ни разу с флагами не сталкивался, но догадываюсь что вкусная штука. То, что раньше делалось ручками теперь можно через этот модкль.
Где можно примеры на русском посмотреть, чтобы понять как оно работает и как оно настраивается?
В чем соль фишки?
Ну да, все это уже сделано, правда ручками.
Коннектимся, скачиваем, парсим, валидэйт, вывод порционно в файлики. Крон файлики кушает и заносит в БД.
Попробую на него время потратить при следующем импорте чего-либо
Больше всего волнует: минимизация аппетита к ресурсам
Спасибо.
p.S. Засасывание мелких файлов субъективно увеличивает время отклика сайта на внешние вопросы. Этот аспект поставил в List ToDo для будущей оптимизации. может ваш вариант как раз и решит данную проблему. Спасибо.
насколько я въехал в этот модуль, там непосредственно в функцию обработчик передается текущий номер записи в массиве, под которым у меня будет номер строки в текстовом файле. Так получается каждый раз мне придется этот файл открывать, позиционировать на $i строчку, считывать ее, обновлять mySQL и закрывать файлик. Это будет одна итерация. и таких у меня будет 100тыс. нерационально как-то.
Итого: порезал файл на маленькие файлики. И каждый по отдельности "засосал" в очередь. А обработку очереди повесил на queue . Сижу смотрю - улетают кусочки со свистом Спасибо всем за подсказки.
С Новым Годом !
Тоже об этом думал, нарезать штук на 20 и крон запускать каждые 3 минуты наверное. Тот при запуске ищет маленькие куски, нашел кусок (любой) - обработал, удалил кусок и завершился. Следущий запуск аналогично. До тех пор пока кусков не останется.
Хорошо ли это ?
Как заставить заставить страницу с VIEWшкой прорефрешить значения полей?
Спасибо огромное, что нашли время все это расписать.
Алгоритмически как все это происходит я понимаю, так как все это давно делалось при помощи голого PHP в редакторе FAR.
Как заставить заставить страницу с VIEWшкой прорефрешить значения полей?
Нашел способ приколистов:
+++
Create an exposed filter. View the html with firebug or a similar extension, then copy the html for the form that submits the exposed filter. Remove all the selection options so you're left with just the submit button, and rename it to something like "Refresh view". Take this html and put it into a header (make sure to set the mode to full html). Voila, Refresh on Demand Form.
+++
Как заставить заставить страницу с VIEWшкой прорефрешить значения полей?
Поставил модуль: https://www.drupal.org/project/views_flag_refresh
В настройках VIEWшки появилась опция FLAG referesh.
Ни разу с флагами не сталкивался, но догадываюсь что вкусная штука. То, что раньше делалось ручками теперь можно через этот модкль.
Где можно примеры на русском посмотреть, чтобы понять как оно работает и как оно настраивается?
В чем соль фишки?
Как заставить заставить страницу с VIEWшкой прорефрешить значения полей?
Да, 4 ссылка с гугла которую мне подкинули. Смотрю
Спасибо за быстрые отклики.
Как заставить заставить страницу с VIEWшкой прорефрешить значения полей?
О, пищу для мозгов подкинули
Благодарствую
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Я не говорю что они обрываются. Я говорю что субъективно кажется что их вешают на HOLD.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Ну да, все это уже сделано, правда ручками.
Коннектимся, скачиваем, парсим, валидэйт, вывод порционно в файлики. Крон файлики кушает и заносит в БД.
Попробую на него время потратить при следующем импорте чего-либо
Больше всего волнует: минимизация аппетита к ресурсам
Спасибо.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Спасибо и на этом. Посмотрел модулек FEEDS - интересный Все через интерфейс делается Для ленивых точно. Запомнил. Вернусь еще к нему.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Вас не затруднит вашу мысль немного расширить(разжевать) ?
p.S. Модуль feeds нужно изучить?
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
p.S. Засасывание мелких файлов субъективно увеличивает время отклика сайта на внешние вопросы. Этот аспект поставил в List ToDo для будущей оптимизации. может ваш вариант как раз и решит данную проблему. Спасибо.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Прошу помочь - научить (показать простейший пример) тому, кто отстал от паровоза за десятки лет
Гуру, посоветуйте плиз ШАБЛОН для СООБЩЕСТВА.
именно уже поставил, присматриваюсь Спасибо.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Вы о подготовке запроса к БД в текстовом файле и скармливанию его MySQLю ? :),
Гуру, посоветуйте плиз ШАБЛОН для СООБЩЕСТВА.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Добрый день. Вы мысль свою развивать будете ? Или на этом все заканчивается?
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
насколько я въехал в этот модуль, там непосредственно в функцию обработчик передается текущий номер записи в массиве, под которым у меня будет номер строки в текстовом файле. Так получается каждый раз мне придется этот файл открывать, позиционировать на $i строчку, считывать ее, обновлять mySQL и закрывать файлик. Это будет одна итерация. и таких у меня будет 100тыс. нерационально как-то.
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Итого: порезал файл на маленькие файлики. И каждый по отдельности "засосал" в очередь. А обработку очереди повесил на queue . Сижу смотрю - улетают кусочки со свистом Спасибо всем за подсказки.
С Новым Годом !
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Спасибо. С Наступающим. Точнее, с наступившим !
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Тоже об этом думал, нарезать штук на 20 и крон запускать каждые 3 минуты наверное. Тот при запуске ищет маленькие куски, нашел кусок (любой) - обработал, удалил кусок и завершился. Следущий запуск аналогично. До тех пор пока кусков не останется.
Хорошо ли это ?
Как обработать ОЧЕНЬ большой массив данных (CRON, CRON QUEUE ...) ? Мозговой штурм need.
Благодарю, Good Boy ! Обязательно буду изучать все варианты.
Изображение не может быть показано, так как содержит ошибки.
Хрен знает откуда вылез этот пробел.
Поставил костыль: ob_start(); и перед выводом заголовка ob_end_clean();
До лучших времен.
При подключении зависимого модуля из своего модуля происходит выдавливание в браузер СИМВОЛА ПРОБЕЛА.
Обычная ситуация для программера долго изучающего свой неработающий код, воскликнуть :
"Или я дурак или ж@па с двумя 'П' пишется"...
При подключении зависимого модуля из своего модуля происходит выдавливание в браузер СИМВОЛА ПРОБЕЛА.
Стою на месте.
Все теги "вылизаны" что в notepade3 что в sublime text editor.
Проверяю уже по нескольку раз одно и то же.
Чешу репу дальше.
При подключении зависимого модуля из своего модуля происходит выдавливание в браузер СИМВОЛА ПРОБЕЛА.
Зачет.
Верное предположение.
Закрывающего тега нет в этих модулях.
Также, сообщаю что оба модуля сохранены в UTF-8 без BOM.
Что еще можно предположить ?
Как узнать задействованные модули при открытии определенной страницы сайта?
Ну..... тоже вариант конечно Спасибо. А через DEVEL подсмотреть это как-то можно ?