Replies (14)
- @Cthulhu:Теперь ты должен сказать "сходящихся методов не бывает в моей вселенной".from Miranda, 4 months ago
- @0xd34df00d:@Cthulhu Нет. Я попробую подумать, как корректно применить метод Видроу-Хоффа для случая, когда у нас не один вектор-столбец с выборкой, а целая матрица из таких столбцов )from Azoth_primary, 4 months ago, in reply to /1
- @0xd34df00d:@Kim И что мне делать с этим Видроу-Хоффом? Как вообще с ним работать для случая, когда есть целая матрица входных значений, а не один вектор?from Azoth_primary, 4 months ago, in reply to /3
- @Kim:@0xd34df00d ещё бы я знал что это за метод и где его используют (нет, гуглить в два часа ночи религия не позволяет).from Bombus, 4 months ago, in reply to /4
- @0xd34df00d:@Kim Обучение тупейших однослойных нейросетей с линейной функцией активации методом градиентного спуска.from Azoth_primary, 4 months ago, in reply to /5
- @Cthulhu:@0xd34df00d #1328914/4
С целью расширения круга задач, решаемых перцептроном, Уидроу и Хоффом была предложена сигмоидальная функция активации для нейронов. Это позволило перцептрону оперировать с непрерывными сигналами, но потребовало модификации алгоритма обучения.
Модифицированный алгоритм направлен на минимизацию функции среднеквадратичной ошибки:
\epsilon=\frac{1}{2} \sum^{n}_{i=1}{(d_i-y_i)^2}
Эта функция определяется матрицей весовых коэффициентов wij. Здесь i — номер нейрона, а j — номер входа.from Miranda, 4 months ago, in reply to /6 - @0xd34df00d:@Cthulhu Да это понятно, непонятно, что делать, когда входные x, по факту, матрица.from Azoth_primary, 4 months ago, in reply to /7
- @Kim:@0xd34df00d очевидно превратить матрицу в вектор какой-нибудь конкатенацией столбцов. Нейронке пофиг что у тебя за данные.from Bombus, 4 months ago, in reply to /8
- @0xd34df00d:@Kim Нет, это ж разные выборки, так я тупо натворю хуйни.from Azoth_primary, 4 months ago, in reply to /9
- @Kim:@0xd34df00d а ты уверен что тебе нужна нейронная сеть? Можно ещё использовать специальную топологию сети с имитацией памяти или обрабатывать столбцы по очереди.from Bombus, 4 months ago, in reply to /10
- @0xd34df00d:@Kim Уверен. Я исследую обучение нейронных сетей )from Azoth_primary, 4 months ago, in reply to /11
- @Kim:@0xd34df00d кстати, говна и записав в линейку не натворишь. Это же метаэвристический алгоритм. Не хочешь влияния между выборками — обруби лишние связи. Не хочешь рубить сеть — пускай по очереди. Или подавай на вход вектора и пусть нейроны уже над векторами работают.from Bombus, 4 months ago, in reply to /12
- @0xd34df00d:@Kim А я уже понял, как правильно сделать.
Ну или не понял, но оно работает.from Azoth_primary, 4 months ago, in reply to /13