---Всем привет--- Изучаю ИСН (Искусственные нейронные сети) машинного обучения 1 год. ( Сам программист ). Очень хочу разобраться в некоторых непонятных формулах включая ( Сигмоидальную логическую функцию 1/1+e^-x), их очень много. Хотелось бы начать с примера и объяснения простой нейронной сети. Заранее спасибо за любой пример и чтиво.
https://www.youtube.com/playlist?list=PLDywto_IU4_4nP7LUZRzQ5QKoglE-WBtT А вообще это больше в гугл, а не на ачат)
ИМХО самый простой и понятный видосик по сабжу: UPDATE: по части непонятных функций штука тут такая: все зависит от графика этой функции. От внешнего вида скажем так. Т.е. простейший случай - прямая, но неплохо бы сделать так чтобы нейронка не кидала веса в разные стороны при малейшей ошибке, вот на это-то график и влияет. Я х/з как это объяснить.
Спасибо ... А для чего нужны вообще веса ?, если я хочу например сделать классификацию изображений кота ( для определения кота на изображении ). Я просто суммирую все пиксели изображения и пропущу через активационную функцию, и так для каждой фото ( то есть обучу ее ) ... ОБЪЯСНИТЕ пожалуйста ...
Видосик посмотри еще раз. Более понятного объяснения я вроде еще не видел нигде. Если ты просто просуммируешь пиксели то ты не отличишь кота от собаки если пикселей будет одинаковое число. Нейронка определяет где конкретно должны стоять пиксели а если стоят немного не там - то решает на что это больше похоже на кота или на собаку. Если она ошибается и ты ей на это указываешь - вот та самая функция определяет насколько изменить веса пикселей. В результате при правильном ответе нужные пиксели получают больший вес а при неправильном все лишние пиксели минусуются для кота например. Соответственно в следующий раз когда покажут собаку и там обнаружатся эти пиксели общий вес будет меньше чем у кота. Ну... как-то так. UPD: и все части желательно. я не помню где там объяснение обучения нейронки но цикл - этот.