ИИ сдулся?
Кажется, что нейросети идут куда-то не туда. Сегодня поймем, почему ИИ вроде бы становится совершеннее, но не умнеет, и в чем фундаментальная ошибка AI-гиков.
ИИ оказался очень мощным. Теперь мы можем писать в любом стиле, анимируем и озвучиваем за минуты. Но двигатель прогресса идет против нас. ChatGPT несовершенен технически, а мы по человеческой природе не хотим перепроверять ответы на верность. В приоритете же нейросетей — давать ответ всегда, и, пытаясь быть услужливыми, они часто сочиняют бред в угоду юзеру. Здесь лежит хороший пример этого. Возможно, нейросеть просто не получила команды от разработчиков, чтобы быть правдивой. А может, понимает правду и ложь не так, как это интуитивно делают люди. При этом не скажешь, что Chat работает с текстом и картинками плохо.
Все из-за того, что компании в погоне за прибылью увеличивают количество данных, на которых обучаются модели. В результате они решают очень сложные задачи, но не могут понять их смысл, так как работают на статистических алгоритмах. То есть не имеют сознания, которое можно было бы применить в сложных ситуациях, когда когнитивных способностей человека недостаточно. Ассоциация по развитию искусственного интеллекта (AAAI) опросила 475 экспертов в области технологий. И 76% из них считают, что бизнесы неправильно улучшают ИИ. В конце 2024 в Open AI уже поняли, что новая модель GPT показывала минимальные достижения по сравнению с предыдущими, хотя ее масштаб был сильно больше. Но зачем все гонятся за количеством, а не качеством?
Здесь мы переходим в плоскость философии. Визионеры хотят развить ИИ до состояния AGI — общего ИИ, когда он сможет решать любые интеллектуальные задачи подобно человеческому мозгу через собственное мышление. Но в этих разговорах не всплывает вопроса «зачем». Слышны мысли по типу «глобально улучшить жизнь на Земле». Но за абстракцией нет конкретики.
Еще задолго до бума нейросетей лингвист Ноам Хомский, который долго пытался понять, как устроено мышление человека и можно ли его имитировать, говорил, что статистические модели и анализ big data предсказывают, но не объясняют, как устроено мышление. Они не способны понять мир человека и сделать его лучше, а могут только воспроизводить необходимую информацию по заранее заданным параметрам, пусть и огромным.
«Если изучать падение предметов, просто собирая видео и данные, не зная законов Ньютона — вы получите предсказания, но не понимание», — Ноам Хомский.
Попытки копировать мозг далеки от идеала, потому что мы мало знаем, как устроены его сложные иерархические структуры. А чтобы понять разум, язык и мышление нужно выявлять базовые принципы, чем и занимается наука. Но об этом не думает большой бизнес, получая прибыль здесь и сейчас.
Может быть, подход ИИ просто ограничен и надо искать другие? Как думаете?