- @0xd34df00d: *mathУдивительно, но вычисление коэффициентов методом псевдообратной матрицы действительно работает, и при этом получаются минимальные среднеквадратичные ошибки: порядка 10^-14÷10^-15. При этом, данный метод на порядки быстрее итеративного метода Видроу-Хоффа и ограничен лишь, собственно, скоростью вычисления псевдообратной матрицы: порядка O(n²), судя по всему. Ну и метод гораздо менее требователен к числу известных значений и размерности обучающей выборки, достаточно лишь, чтобы число входных нейронов + число выходных нейронов было немного меньше, чем размерность выборки.
- @0xd34df00d: */b/ *физтех *mathКОЛЛЕГИ, Я СЕЙЧАС КОРОЧЕ СМОТРЕЛ НА ГРАФИКИ И УВИДЕЛ ВРЕМЕННОЙ РЯД, НУ Я СЕЛ И РЕЗКО ЗАПИЛИЛ НЕЙРОСЕТЬ ДЛЯ ПРОГНОЗИРОВАНИЯ И ПОЯСНИЛ ВРЕМЕННОМУ РЯДУ КАК ЕГО НАДО ПРОДОЛЖАТЬ, ПОТОМУ ЧТО Я УГОРЕЛ ПО ПРОГНОЗИРОВАНИЮ ВРЕМЕННЫХ РЯДОВ, КОЛЛЕГИ ДУХ СТАРОЙ ШКОЛЫ ЖИВЕТ ТОЛЬКО В SCILAB, ГДЕ УМНОЖАЮТ МАТРИЦЫ ВЕСОВ, ГДЕ СУММИРОВАНИЕ ИДЕТ В ОДНУ СТРОЧКУ И ГДЕ АНАЛИЗИРУЮТ ГИГАБАЙТЫ ДАННЫХ! ТОЛЬКО НЕЙРОСЕТИ, ТОЛЬКО SCILAB!!! коллеги пишите нейросети, однослойные, многослойные, с обратными связями, со стохастическими нейронами, любите правило видроу-хоффа, псевдообратные матрицы, backpropagation-алгоритм и адаптивный шаг! ГОВОРИТЕ ОТКРЫТО И СМЕЛО И ПРЯМО В ЛИЦО! НЕЙРОСЕТИ!3 months ago; 105 replies (+10)
- @0xd34df00d: *math *programmingХех, опыт, полученный за годы плюсозадротства, таки не нужно выкидывать в трубу. Опыт и выработанный подход к программированию и к проектированию систем позволяет организовывать численные эксперименты, сравнивать методы, и так далее, на порядок эффективнее, легче и структурированнее.
- @0xd34df00d: *math *физтехНе, посоны, что-то тут не так. Синус идеально предсказывается, вещи типа 5sin(x) + sin(3x) — тоже. Линейная авторегрессия не должна работать настолько хорошо, блеать!
- @0xd34df00d: *math *идиоты *говноБлядь, я просто сраный идиот. Забыл в условии остановки цикла извлекать корень из посчитанной среднеквадратичной ошибки, поэтому нейросеть тренировалась не до 0.0001, а до 0.01 и, естественно, нихера и не предсказывала.
Все отлично работает. - @0xd34df00d: *programming *math *говноУ scilab какой-то полный пиздец со скоупами переменных. Сибляди негодуют.3 months ago
- @0xd34df00d: *stuff *mathЖуйк, как бы ты перевел «ensemble-based decision systems»? «Ансамбль, принимающий решения» звучит как-то тупо.4 months ago; 12 replies
- @0xd34df00d: *mathВообще даже для такой банальной вещи, как линейнай авторегрессия, можно обнаружить пару любопытных закономерностей. Например, близость предсказанного к реальным значениям как функция от числа нейронов имеет явно выраженный максисум, и нейросеть работает существенно лучше, если ей нужно предсказывать вещи после того набора значений, который уже был.
Например, если брать функцию y = 0.1 sin(0.3 x) + 0.5 на двух разных интервалах (синенькое — обучающие данные, зелененькое — как должно быть дальше, красненькое — как предсказала сеть):
[1..20]: для сети из 4 нейронов: ompldr.org , для 7 уже хуже: ompldr.org , для 16 ваще ужас: ompldr.org
[1..25]: для сети из 4 нейронов: ompldr.org , для 11-13 ваще ништяк: ompldr.org и ompldr.org а для 21 уже ваще по пизде идет: ompldr.org . Переобучение, чо.
Ну и начиная с некоторого числа нейронов метод Видроу-Хоффа начинает сходиться, с одной стороны, гораздо (на порядок-другой) быстрее, с другой — немного меняет вид сходимости. Тоже мог бы засрать графиками, но всем похуй же. - @0xd34df00d: *stuff *mathПосоны, я, короче, синус научился предсказывать. Для модели с линейной авторегрессией и 7 нейронами: ompldr.org
Говно какое-то, или линейная авторегрессия так и должна себя вести? - @0xd34df00d: *stuff *math *говноХаха, метод не сходится. Where is your fukken math now?4 months ago; 14 replies
- @0xd34df00d: *math *stuffЖуйц, подскажи плиз поисковую хреновину, которая по названию книги/публикации может дать полный bibtex-код.
Англоязычные, впрочем, мне тоже понадобятся.4 months ago; 13 replies - @0xd34df00d: *math *говноЧтобы сгенерить библиографию, нужно сделать latex && bibtex && latex && latex.
НИКАКИХ КОСТЫЛЕЙ - @0xd34df00d: *math */b/ *stuffОбмазаться и вмазаться кофе, обмазаться манами и заботать все нейросети, блеать!
YES I CAN4 months ago; 14 replies - @0xd34df00d: *math *идиотыМне сейчас упорно пытались доказать, что сопротивление равно единице на наблу, а реактивное сопротивление равно якобиану. Вот просто, якобиану.
Такой травы даже у меня не было. Никогда. - @0xd34df00d: *mathЖуйц, спаси Дедфуда и построй график abs (((1-2z)(1-3z/2)-7z/16)/((1-3z/4)(1-5z/4))) = 1, где z комплексное. Результат скрином в комментах ок :3
Олсо, это весьма срочно, хоть мне и стыдно просить.5 months ago; 23 replies