Внезапно, читая статью про SSM, осознал, что секс мне чо-та противен. Это ж тяны опять, сратьяблевал, кровьговно иррациональность боль.
Внезапно, читая статью про SSM, осознал, что секс мне чо-та противен. Это ж тяны опять, сратьяблевал, кровьговно иррациональность боль.
Во-первых, сдал сегодня НИР по своим сиранэ нейросетям на 10 из 10. Это пять с плюсом по стандартной шкале. И это круто :3 Олсо, PDF-ка из теха люто дрочибельно смотрится на проекторе, да.
Во-вторых, я попал именно к тому научруку, к которому хотел попасть, и он уже подкинул кое-какую весьма фапабельную пищу для ... more →
У меня заработал backprop, предсказывается синус, зашумленный синус и очень зашумленный синус, забавная зависимость от конфигурации внутреннего слоя и ваще. Только, блять, меееееедленно.
Завтра сдача НИРов, статья должна быть в техе, так что ко мне сегодня стабильно прибегают две тяночки и просят фиксить вещи. Уняня, я ощущаю себя популярным, епта!
EPS такая няша, что я аж обдрочился.
Заставил выводить сцылаб результаты численных экспериментов не напрямую в картиначьку, а в файлики. Потом эти файлики можно подгружать в gnuplot, комбинировать и так далее. НЯШНОТА! EPS! LATEX!
qt@cjr:
* Deliseum (deliseum@jabber.ru/Psi) joined the room as participant and newcomer
Deliseum: сделайте мембером, затрахался вводить капчу
0xd34df00d: А ты шаришь?
Deliseum: а что надо расшарить?
V0id: ну, материться шарит, как видишь
0xd34df00d: Deliseum: ну не знаю, можешь матан расшарить.
0xd34df00d: Хотя ... more →
Backpropagation меня явно где-то наябывает. Заметил, что вычислял в градиенте F'(Σ) вместо F'(F(Σ)) (просто для всяких гиперболических тангенсов и биполярных сигмоидных функций их производная хорошо выражается через них самих), исправил на F'(F(Σ)), а метод стал работать еще хуже. Ну, по крайней мере, при замены ... more →
В мейллисте debian-russian обсуждают матан, теорию множеств, теорию игр и прочие няши. Жуйк^W ЛОР^W линукс торт.
Что самое забавное, линейная авторегрессия вполне неплохо позволяет прогнозировать временные ряды из реальной жизни. Вот, например, для графиков потребления электроэнергии. Синее — обучающая выборка, зеленое — как должно быть, красное — что предсказано.
Эпик ... more →
Посоны, кто здесь в нейросетях шарит, почему backpropagation так херово сходится на обучающей выборке и так плохо предсказывает?
Овердизайн — говно, пора лечиться. Так что я не буду делать очередную абстрактную хреновину по нейросетям, а сделаю функцию с захардкоженным числом слоев, и так далее. Ибо иначе упороться можно, а упарываться времени нет.
Выпуклость множества решений выпуклой задачи оптимизации выпуклой функции.
Выпукло выпукло выпукло, уняня.
Попытался рассчитать поправки в формуле Планка для случая неэффективного излучения пиковых длин волн. Мозг взорвался нахуй. Пойду дальше обмазываться Сивухиным и английским гуглом.
Haskell — это иногда такой продвинутый калькулятор, да. Помогает решать задачи по теорверу.
fac n = product [1..n]
c n k = fac n `div` (fac k * fac (n — k))
numTrue = 1 — (toRational $ 4 * c 13 6 + 6 * c 26 6 + 4 * c 39 6) / (toRational $ c 52 6)
Subscribe to *math
0xd34df00d
4da
238328
ulidtko
rapture
jabber
zw0rk
magog
Elemir
0x2207
utros
MPogoda
13oz
folex
werehuman
gisty
lukish
dorfe
gds
kb
eurekafag
snakehoney
Crazy_Owl
Like-all
Minoru
gelraen
Manik
arts
Cthulhu
clayrat
vannadiz
CodeMonkey
0anon
setazer
Aika
Eight
svtk
hirthwork
octocat
nya
sigmakyte
chemikadze
iLeamare
folone
DancingWolf
Daniil_TrueIfrit
mva
RainerGomes
xujgavno
Desu1488
Apathism