Loading...

Математик предупредил об угрозе нейросетей: «Привычные и знакомые алгоритмы начали видоизменяться»

Искусственный интеллект может обладать опасными алгоритмами, предупреждает американский математик Кэти О’Нил. «Привычные и знакомые алгоритмы начали видоизменяться, и появились технические непрозрачности», — отмечает она.

Искусственный интеллект на основе нейросети может содержать опасные для человека алгоритмы. Об этом предупреждает американский математик Кэти О’Нил. По её словам, с появлением нейросетей привычные и знакомые алгоритмы начали видоизменяться и появились технические непрозрачности.

Loading...

Речь идёт о так называемой проблеме «чёрного ящика». Нейросети создаются путём «обучения» программы выполнению определённых задач по аналогии с мозгом человека. Это позволяет добиваться исключительных результатов. Однако обратной стороной этого процесса является то, что невозможно точно предсказать, чем руководствуется программа при принятии того или иного решения.

Данный вопрос становится очень актуальным, когда искусственному интеллекту на основе нейросети ставят задачу по принятию решения о предоставлении кредита человеку или при расчёте статистики и прогнозов. Учёные до сих пор не могут понять, как рассчитать, насколько взвешенное решение принимает компьютер под управлением нейросети, пишет NEWS.ru.

Кроме того, крупные корпорации всё чаще используют нейросети для создания глобальных структур без использования локальной сети. Это может навредить безопасности и прозрачности обработки данных.

Не в последнюю очередь опасения учёных вызывает и сценарий полной замены людей на рабочих местах машинами под управлением искусственного интеллекта. Это создаст высокий уровень безработицы и подтолкнёт человечество к ужасным условиям выживания, предупреждают специалисты.

(Visited 5 times, 1 visits today)
Рейтинг
( Пока оценок нет )
Loading...