ШІ в пошукових системах помиляється з джерелами новин — що про це кажуть експерти

Останні дослідження, проведені Центром цифрової журналістики при Columbia Journalism Review, виявили серйозні проблеми у роботі пошукових систем на основі штучного інтелекту.
їВісім таких систем показали, що понад 60% їхніх відповідей на запити щодо джерел новин були хибними або спотвореними. Інцидент привернув увагу, оскільки понад 25% американців вже використовують ШІ як альтернативу традиційним пошуковим платформам.
Тестування показало численні неточності
Під час тестування було перевірено, як ШІ аналізують реальні новини, визначаючи заголовки, джерела, видавців, дати публікацій та URL. Результати показали, що штучний інтелект часто надавав правдоподібні, але неточні відповіді. Зокрема, платні моделі, як-от Perplexity Pro і Grok 3, виявилися менш точними, ніж безплатні аналоги.
Проблеми з доступом до контенту
Крім того, деякі ШІ-платформи ігнорують директиви, що забороняють доступ до певних джерел. Наприклад, система Perplexity порушила обмеження і неправильно ідентифікувала контент з National Geographic, навіть коли її доступ до матеріалів був заборонений.
Високопосадовці журналу Time висловили сподівання на покращення точності та надійності ШІ-систем у майбутньому, зазначаючи, що проблеми з такими помилками можуть суттєво підірвати довіру до цифрових платформ. У відповідь на критику компанії OpenAI та Microsoft підтвердили, що помилки в їхніх системах справді мають місце, але вони пообіцяли працювати над усуненням недоліків.
Раніше Ілон Маск презентував найрозумніший штучний інтелект.
+ Немає коментарів
Додайте свій