Изследователи на Apple са открили "фундаментални ограничения" в авангардни модели за изкуствен интелект. Откритията са описани в статия, която повдига съмнения относно надпреварата на технологичната индустрия за разработване на все по-мощни системи, пише британският в. Guardian.
От Apple посочват, че големите модели за разсъждение (LRM) - усъвършенствана форма на изкуствен интелект, се изправят пред "пълен колапс на точността", когато се сблъскват с много сложни проблеми.
Изследователите установяват, че стандартните модели с изкуствен интелект превъзхождат LRM при задачи с ниска сложност, докато и двата вида модели претърпяват "пълен колапс" при задачи с висока сложност.
Големите модели за разсъждение се опитват да решават сложни заявки, като генерират подробни мисловни процеси, които разделят проблема на по-малки стъпки.
Проучването, което тества способността на моделите да решават пъзели, установява още, че когато LRM се приближават до колапс на производителността, те започват да "намаляват усилията си за разсъждение". Изследователите на Apple казват, че това е "особено обезпокоително".
Гари Маркъс, американски академик, който се превърна във виден глас на предпазливостта относно възможностите на моделите с изкуствен интелект, определя статията на Apple като "доста опустошителна". В своя бюлетин за Substack Маркъс казва, че откритията повдигат въпроси относно надпреварата към изкуствен общ интелект (AGI), теоретичен етап от изкуствения интелект, на който системата е способна да се конкурира с човека при изпълнението на всяка интелектуална задача.
Проучването установява още, че моделите на разсъждение пилеят изчислителна мощност, като намират правилното решение за по-прости проблеми в началото на своето "мислене". Въпреки това, когато проблемите стават малко по-сложни, моделите първо изследват неправилни решения и по-късно стигат до правилните.
За проблеми със значително по-висока сложност обаче моделите не генерират никакви правилни решения. В един случай, когато им е предоставен алгоритъм, който би решил проблема, моделите също са се провалили.
"При приближаване до критичен праг, който съответства точно на точката на колапс на тяхната точност, моделите, нелогично за интуицията, започват да намаляват усилията си за разсъждение, въпреки нарастващата трудност на проблема", пише в статията. Според експертите на Apple това показва "фундаментално ограничение на мащабирането в мисловните възможности на настоящите модели за разсъждение".
В статията са поставени предизвикателства пред LRM, като например решаването на няколко пъзела. Изследователите признават обаче, че фокусът върху пъзелите представлява ограничение в работата.
В статията се заключава, че настоящият подход към изкуствен интелект вероятно е достигнал до ограничения. "Тези прозрения оспорват преобладаващите предположения за възможностите на LRM и предполагат, че настоящите подходи може да се сблъскват с фундаментални бариери пред обобщаващото разсъждение", пише в статията.
Изследователите са тествали модели, включително o3 на OpenAI, Gemini Thinking на Google, Claude 3.7 Sonnet-Thinking на Anthropic и DeepSeek-R1.