Предмет:
ИнформатикаАвтор:
анонимЕсть, и вполне обоснованные. Опасность в том, что искусственный интеллект по мере своего развития может достигнуть точки во времени, когда его развитие не будет зависеть от действий человека. Этот момент называется сингулярностью. Поэтому предсказать, что именно будет делать искусственный интеллект, что у него \"задумано на уме\", будет невозможно. А если ИИ будет управлять какими-либо стратегическими ресурсами человечества, например, военным вооружением, то он может спровоцировать войну между странами или между машинами и людьми. В сюжете того же \"Терминатора\" есть определённая логика по поводу этой проблемы.
Автор:
mouse60Добавить свой ответ
Предмет:
ИнформатикаАвтор:
анонимОтветов:
Смотреть
Предмет:
ИнформатикаАвтор:
анонимОтветов:
Смотреть
Предмет:
ИнформатикаАвтор:
анонимОтветов:
Смотреть
Предмет:
ИнформатикаАвтор:
анонимОтветов:
Смотреть