
Специалист по контролю качества Олег Строкатый обратил внимание, что нейросети способны уверенно выдавать ложную информацию. Поэтому основой надежности становятся достоверные знания.
Риски генеративности и человеческий контроль
Эксперт пояснил, что генеративный ИИ функционирует как вероятностная модель. Одинаковые запросы часто приводят к разным ответам, и гарантировать их точность невозможно.
"Именно поэтому основательные знания выступают критическим фильтром: без них человек может принять правдоподобный ответ за истину", сказал Строкатый.
Он выделил три главных правила эффективного взаимодействия с нейросетями: знания, перепроверка (верификация), ответственность. Финальным звеном контроля качества всегда остается человек.
Открытия российских ученых
Ранее в СПбГУ и Институтах РАН разработаны системы искусственного интеллекта, автоматически обнаруживающие опасные погодные явления по спутниковым данным.
Источник: russian.rt.com





