Научная статья под названием «Exploring the Challenges and Potential of Generative AI: Insights from an Empirical Study» опубликована в открытом доступе. Работа, выполненная в рамках проекта OpenFact, подчеркивает как сильные стороны, так и практические проблемы, возникающие при использовании таких передовых инструментов ИИ.
Результаты эксперимента выявили частые случаи «галлюцинаций» ИИ — ситуации, в которых искусственный интеллект генерирует убедительно реалистичную, но неверную или несуществующую информацию. Участники также отметили значительную проблему отсутствия прозрачности генерируемого контента, особенно отсутствие цитирования или указания источников, что усложняет проверку достоверности предоставляемой информации.
Другим тревожным открытием стало то, насколько легко можно манипулировать генеративными инструментами ИИ для создания фейковых новостей. Студенты, участвовавшие в эксперименте, обнаружили, что заставить ИИ генерировать убедительно звучащую ложную информацию оказалось чрезвычайно просто, что может иметь серьезные социальные и экономические последствия.
Эти выводы имеют глубокие последствия для бизнеса, образовательных учреждений и общей сферы информационной безопасности. Компании, внедряющие технологии ИИ, должны тщательно оценивать риски, связанные с ненадежностью информации, созданной искусственным интеллектом, что может привести к ошибочным бизнес-решениям или ущербу для их репутации. Также и учебным заведениям необходимо учитывать влияние таких инструментов на академическую добросовестность и качество создаваемого студентами контента.
Авторы исследования подчеркивают, что стремительное развитие генеративного ИИ делает проведение подобных исследований сложной, но критически важной задачей. Необходимы дальнейшие исследования и постоянная бдительность, чтобы развитие технологий искусственного интеллекта оставалось ответственным, прозрачным и полезным для общества.
Более подробную информацию можно найти на сайтах: kie.ue.poznan.pl, ue.poznan.pl