Показать сообщение отдельно
  #16  
Старый 21.01.2019, 14:09
Eldgernon Eldgernon вне форума
натуралист
 
Регистрация: 21.02.2014
Сообщения: 36
По умолчанию

Я хотел бы остановиться на двух интересных проблемах, затронутых в видео.

Цитаты участников:
Цитата:
«Я удивлен, что мы достигли очень небольшого прогресса в понимании, как все мы можем сидеть здесь и испытывать живое, сознательное, единое переживание.
У нас нет вычислительного или иного научного понимания того, как это все работает, но это глубоко связано с будущим ИИ».
Цитата:
«Как нам представить ИИ наши системы ценностей (включая этику), когда мы не в состоянии объяснить их суть даже друг другу?»

Главная мысль в том, что если мы не хотим получить ИИ в виде непредсказуемого аутиста саванта, то должны обеспечить в нем, помимо прочего, эмоциональный и социальный интеллекты.
К этой же задаче мы приходим и с другой стороны.
Набор инструкций – тупиковый путь, какими бы подробными они ни были.
Есть более перспективная идея – заложить в ИИ только сам посыл – «При принятии решений, имитируй, а как сделал бы человек».
Но для этого опять-таки нужно заложить в ИИ эмоциональный и социальный интеллекты.
Если же учесть цитаты, с которых я начал, возникает вопрос:
Возможно ли в принципе за оставшиеся 30 лет пробежать дистанцию от полного непонимания «как это вообще работает?» до готового решения?
Я не уверен, что вопрос можно решить даже если объявить эту проблему всепланетным приоритетом и направить туда все мыслимые ресурсы.
Но ведь пока и этого нет. Только кучка энтузиастов, пытающихся привлечь внимание остальных, очень занятых намного "более важным".

Кроме этого, есть трудности и в самой концепции «имитация человека». Что значит «человек»?
Нас 7,5 млрд разных вариантов. Одну и ту же ситуацию мы и сами-то оцениваем по-разному, спорим, принимаем разные решения.
Как имитировать, извините, собирательный образ?
Есть вариант выбрать за образец одного, самого достойного. Упоминался, например, Иисус.
Но можно быстро убедиться, что в качестве рабочей модели такой образец не жизнеспособен.
Он не сможет защитить нас при угрозе, да и сам Иисус достаточно быстро плохо кончил.
Так что идея с имитацией мне понравилась, но как ее реализовать вариантов не вижу.

Вторая проблема, затронутая в видео – рекурсия. В видео озвучен один из простеньких вариантов этой проблемы:
«Сколько должен думать ИИ, перед тем, как ответить?»
Подразумевается, что если вопрос достаточно сложный, а ответственность принятие решения максимальна, то как тут решить:
«взвесить все еще раз или пора уже дать ответ, пусть не идеальный?»
В какой момент прервать свои бесконечные оценки ситуации?
Ведь вроде же каждый новый цикл раздумий делает оценку более взвешенной. И это вроде разумно. Так где граница между "разумно" и "неоправданно долго"?

Проблема бесконечной рекурсии так же маячит и в сценариях с самоабгрейдом.
При постановке сложной задачи возникает такой парадокс.
Зачем заниматься решением задачи сейчас, если это время можно использовать на увеличение своего потенциала, а уже потом решить ту же задачу, но на порядки быстрее?!
Проблема в том, что после первого «цикла» встанет точно такая же дилемма: решать отложенную задачу или установить еще пару «модулей»?
И так далее до бесконечности. Ибо второе всегда будет оказываться эффективнее первого.
Вместо помощника мы получим зацикленного на росте исполина.
Исполина, который не будет успевать заниматься ничем, кроме увеличения собственной мощи.
Исполина, который так никогда и не воспользуется своей мощью…
Ответить с цитированием