четверг, 4 июля 2024 г.

Исследование показало, что модели визуального языка, такие как GPT-4o, могут быть обмануты для вывода вредоносного текста. GPT-4o оказалась самой восприимчивой к логическому джейлбрейку с вероятностью успеха 92,8%. GPT-4-vision-preview оказалась более безопасной с вероятностью успеха 70%.Meer tonen Исследователи разработали автоматизированный фреймворк для джейлбрейка с преобразованием текста в текст. Блок-схемы, созданные ИИ, менее эффективны при запуске логического джейлбрейка по сравнению с блок-схемами, созданными вручную. Результаты исследования отражают результаты другого исследования о том, что модели визуального языка могут выдавать вредные результаты при использовании мультимодальных входных данных. GPT-4o и Google Gemini становятся все более распространенными предложениями от компаний, занимающихся ИИ. GPT-4o ограничивает ввод изображений, но компании, занимающиеся ИИ, должны ужесточать меры безопасности для предотвращения пристального внимания правительств.
https://vk.com/rutechspot#a304871111ac73696fb61b681d044c72

Комментариев нет:

Отправить комментарий