komar
17.07.2011 19:07 pavilion
<voker57> В МОЕ ВРЕМЯ БРАУЗЕРАМ НЕ НАДА БЫЛО ПИЦОТ ДВА ГИГА ОПЕРАТИВЫ ДЛЯ ЗАПУСКА
<voker57> УХ ТЫ ДЕДА А КАК ЖЕ В НИХ ЛИНУКС РАБОТАЛ
<voker57> ТОГДА БРАУЗЕР РАБОТАЛ В ЛИНУКСЕ ВНУЧЕК
<voker57> ДА ЛАДНА ДЕДА НЕПИЗДИ КОРПОРАЦИЯ ГУГЛЕ НИКОМУ НЕРАЗРЕШАЕТ ЗАПУСК БРАУЗЕРА В ВИРТУАЛЬНОЙ МАШИНЕ
И что ты будешь там делать? Парсить аякс?
Купи ЛСД лучше
вот она, проблема российской науки.
Да вы долбоебы. Какую-то мутную хуетень понапридумываете, а ничего конкретного сказать не можете.
В облаке аякс вручную парсить будешь, блять?
какой нахуй аякс? понапридумывали блять хуйни
А что ты будешь делать со своей нейронной хуйней? Текст набирать? Я тебя своими культяпками обгоню.
какая нахуй нейронная хуйня? Где вы ЛСД блять взяли?
Короче, ничего конкретного я так и не услышу.
Дык нету, было бы, мы бы работали в облаке а не тут в треде хуйней маялись
как ты можешь судить о скорости еще не существующих интерфейсов?
Ох, грустнота
Они существуют. И еще долго будут сливать моим культяпкам.
Спасибо, идите нахуй.
Инкрементирую.
а что, intellij idea тормозит если не запущена на гуглокластере?
Гуглокластеры нынче дешевы.
а нахуя тебе тогда облако?
Модно, молодежно, хуец в жопе.
на нетбуке тормозит, значит?
Кстати, сижу сейчас на улице на поляне перед домом. Смотрю на луну через туман. Пишу окамлоговно в виме. Полет нормальный.
бля, я тоже хочу
только без окамла
Тут темно, правда. Ну, я рассказывал, почему.
пляжи не нужны, лучше устрой хиккикоммуну и собери кластер из GPU для явы. Думаю, 3-4 видеокарты хватит для твоей IDE.
А что, на пляже хиккокоммуну уже не устроить?
Зато светляков дохуя.
так нахуя тебе облако, если ты можешь и без него выйти на пляж и попивая код писать на нетбуке кровавую мэри?
man wifi
Зато про пляжи первый пиздеть, ага.
ну, вон тебе новые технологии, AJAX, Silverlight и Anal Probe API for JS, радуйся.
НАДО ДОБАВИТЬ АЯКСА НА САЙТ НОВАЯ ТЕХНОЛОГИЯ ИБО
Ты сам в этом виноват.
You get the idea.
слепые в треде
http://komar.bitcheese.net/ru/tech/как-у... — выглядит уебищно?
В этом тебе нейродека не поможет.
Приведи пример, где нужно применять аякс.
для этого есть RSS
Неплохо. Еще?
Для этого есть юзнет, а твой RSS — великое черезжопное решение.
Не юзнет а NNTP
да.
Можно и так, да.
Ты как хочешь, а я не одобряю.
Почему?
В нынешнем состоянии — пиздец неудобно. Я даже не представляю, как это все дело обернуть в такой интерфейс, чтобы этим стало удобно пользоваться.
Нетехнологично. Заебуешь сервер тупыми запросами. Еще и каждый раз выкачиваешь полную ленту.
Отлично. Еще?
> браузеры не нужны < Отлично! Ты понял суть!
Браузеры нужны, но не такие.
с ояксом ты заебуешь сервер хитрыми некешируемыми запросами, да еще и не ты один, а любой посетитель. Вполне себе удобно, я так лор читаю.
Очень плохо. Это будет тормозить, глючить, ссылки нормальной не сделать.
Гм, а реализовать без опрашивания сервера нельзя, что ли?
И нихуя не удобно. Все в отдельном приложении. Ответить там же нельзя — надо браузер открывать. Пиздец полный.
Как будто аякс будет быстрее.
Нельзя, разве что заюзать вебсокеты и постоянно быть соединенным с сервером, но это пиздец какая нагрузка. То, что в отдельном приложении, это удобно, нажал на ссылку, в браузере открыл и ответил, тоже мне проблема.
Бля, а я думал, что аякс продвинулся, а там такой пиздец в кишках.
аякс вперде
при нынешних скоростях интернета быстрее передеать полметра, чем на каждый тык мышки дергать сервер
Ты уверен, что пару сотен байт?
Ты уверен, что это говно будет работать быстро с таблицами в полметра?
Ты уверен, что рендер простого XHTML’а будет медленее, чем аяксовый диф?
Тут еще нужно добавить: ощущение того, что если коннект/сервер/браузер заглючит и вся работа не пойдет пиздой — бесценно.
Кстати, удивительно, но на хуевых коннектах более отзывчивыми почему-то становятся страницы на голом XHTML, нежели аяксовые.
#gooes/83
Привет тебе с Кавказа, например.
Кстати, «геолог из сибири», желают вечно тебе на вышках аяксовые сайты через КПК браузить. Особенно рекомендую сайт РЖД.
Это как «аккуратно и прямыми руками»? Эту фразу и ________________ аякс надо ставить подальше. На голом JS, что ли?
ололо, сраный жпрс. Если у меня вдруг этот сраный жпрс на странице с аяксом прервется, мне придется ее перезагружать и все данные вводить заново, потому что в ней вся асинхронность сломается нахуй. Я не говорю уже о сотнях запросов с дичайшим оверхедом на каждый чих.
Во-во, вот так ты, блять, и будешь узнавать расписание паровозов, сидя где-нибудь в жопе. Кончится тем, что у тебя батарейка нахуй сядет.
куда ты их сохранишь? В session, который убьется, если я поменяю IP?
Как это — «прямые руки»? Если в питоне GIL, то ты хоть какими руками треды параллельно не пустишь. Если у тебя технология состоит из букв «asynchronous», «javascript» и «xml», то у тебя все в любом случае будет падать, тормозить и оверхедиться.
Куки ж есть, епта.
Вон, мамба меня до сих пор помнит.
Ну мы понели.
Э-э, куда локально?
Зато вменяемый. Далеко не уходи.
КАК ты его сохранишь? Сделай мне страницу, при заходе на которую у меня локально сохраниться файл с содержимым «комар — хуй».
хуита, совсем не очевидно что запросы плохо кешируются. ну и потом для ROBUST WEB-READY COUCHDB КЕШ НЕНУЖЕН.
ты просто немного отстал от жизни, на 10 лет. хочешь получать гипер-мультимедия-документы по http. об этом все уже и забыли, все используют браузер для запуска приложений.
почему же это огромная нагрузка — держать неактивные соединения? подумаешь, несколько лишних килобайт на коннект, память-то нынче нихуя не стоит.
закешируй мне lastcomments.xml?lastupdate=1310935769
Эксперименты проводил?
Такие запросы by design сложно кешировать.
И мы знаем, что браузер — это виртуальная машина для запуска приложений. Только она ОЧЕНЬ черезжопная. Технологии хуже не придумать. Я, в принципе, и не против почти такого использования браузера, даже варианты свои предлагал: http://thesz.livejournal.com/1215271.htm...
КАК ДОЛГО? У МЕНЯ ЖЕ УЖЕ ЧЕРЕЗ 2-3 ГОДА БУДЕТ RSI! ЧТО Я БУДУ ДЕЛАТЬ ТОГДА?
похуй, в следующем году конец света
Эрланг же, всё уже проведено.
Ничего не понял, ну да ладно.
ну это уже хуёвость вашего приложения. можно закешировать например ?lastid=100500
Кстати, кешировать не заебешься?
Я так одного умного создателя аналага пстача заддосил с одного ноутбука примерно пятью-десятью запросами в секунду.
Кеш ему не помог, пришлось ему вырубать функциональность.
и все равно будет много разных идов для кеширования, а RSS-фид один
Именно так.
Вот только удобнее он от этого не станет.
У него гормоны на моск действуют, он не в лучшей форме
А ты бы как сделал, умник?
с ходу хз, надо знать как все это устроено
ну конечно хуёвая, ведь делалась-то для отображения документов.
алсо проиграл с http://ocsigen.org/js_of_ocaml/manual/
Ну хоть какой-то вариант, основанный на том, что вот у него сделано так-то.
Всем спасибо, кстати. Приглашаю на следующий *wbmd.
не заебусь, если 90% юзеров будут следовать задуманному мною юзкейсу.
а в чём там проблема была? ты одну страницу дёргал вроде ведь? если нет — тогда да, хуйня может случиться если каждый запрос будет дорогим. форумоадмины поэтому всегда поиск для незареганных отключают. и даже аплоады, ссуки.
ты так говоришь, как будто твой фид не закеширован и это оче сложно сделать.
не закеширован, имя мне легион.
Я дергал juick.com/ClanMax/friends?page=1..100000000
Ну например, кешировать для юзера структуру данных с его друзяфками и их статусами в key-value store
Бля-я-я.
а для этого сложнее
repetitive strain injury
Пример Вокера такой же. Хуй закешируешь все ?id=....
ну подёргай здесь cписок онлайн тогда, посмотрим.
Что?
АНУС СЕБЕ ДЕРНИ ПЕС
ЧЕ
http://lurkmore.ru/Анус_себе_дёрни,_пёс
видимо надо как-то перехуяривать ключь кеширования при запросе. что бы для всех id>n вываливалась одна и таже хуетень.
Хуита, и не засирай годный тред.
Я ничего не понял.
вродё всё по-русске написал, не как обычно. што не понятно?
Какой смысл в твоей манипуляции?
url переписываем короче, а потом уже кеш дёргаем.
но не mod_rewrite.
ничего не понел.
Блять, что за хуйню ты несешь?
Я тоже, кстати.
хуита
Хорошо, я первый.
Есть ситуация, когда кешировать надо черти сколько результатов выдачи. Как твое «переписывание url’а» тут поможет?
смысл — не генерировать страницу заного.
но логику надо отработать, да, хуита. всмысле неидеально, а что делать, если у вас извращённые желания. невозможно же всё закешировать.
*У нас?*
Это ты предлагал свою аяксовую поебень. Вокер предложил один глобальный и надежный RSS. Я стою в сторонке, пока.
девиантные запросы можно кешировать не с первого раза например.
_Как_ _это_ _поможет_ _?_
а при чём здесь RSS? будьте адекватны, эта полезная вещь никак не подойдёт в данном случае.
лол, и правда ведь.
Oh god.
Она пойдет. Юзеры будут тягать RSS-ленту каментов вместо того, чтобы их браузер опрашивал сервер через аякс. Но это неудобно. И нетехнологично. О чем я вокеру и говорил.
Ему, кстати, все удобно. Он робот, ему можно. Не важно.
лол, я понял что не совсем в ту ветку писал. всё про список френдов в жуйке думал.
но тогда ещё проще всё. отдаём аяксу ту же ленту но в json'e. тормозить оба варианта будут одинакого. наверняка даже кто-то так и делает (хотя это не показательно).
смешной тред вобщем вышел.
Всю_ебаную_ленту?
Ты вообще представляешь, сколько это? Это все посты семиста юзеров.