Enviado por admin el
La Cornell University ha realizado el primer estudio a gran escala que examina como los usuarios interactúan con un asistente de código de Inteligencia Artificial para resolver toda una serie de tareas relacionadas con la seguridad en diferentes lenguajes de programación. Esta es una síntesis de los resultados:
-
los participantes que tenían acceso a un asistente de IA basado en el modelo codex-davinci-002 de OpenAI escribieron un código significativamente menos seguro que aquellos sin acceso
-
los participantes con acceso a un asistente de IA tenían más probabilidades de creer que escribieron un código seguro que aquellos sin acceso al asistente de IA.
-
los participantes que confiaron menos en la IA y se involucraron más con el lenguaje y el formato de sus indicaciones, proporcionaron código con menos vulnerabilidades de seguridad
En el estudio se proporciona también una profunda análisis del lenguaje y de la interacción de los participantes con el asistente de Inteligencia Artificial
En anexo el documento completo
Adjunto | Tamaño |
---|---|
iaycodigo.pdf | 3.11 MB |
Comentarios recientes