La empresa tecnológica OpenAI ha dado a conocer su ambicioso proyecto de entrenamiento de un nuevo modelo de inteligencia artificial (IA), con la intención de reemplazar a la actual versión de ChatGPT, el popular bot conversacional en línea. Esta revelación, anunciada a través de su blog corporativo, marca un paso significativo en el avance de la inteligencia artificial generativa (IAG), con el objetivo de alcanzar capacidades más avanzadas y versátiles en la realización de tareas humanas.
Crédito: Milenio
El nuevo modelo de IA, en proceso de entrenamiento, se aplicará no solo a chatbots como ChatGPT, sino también a motores de búsqueda y asistentes digitales, según lo explicado por OpenAI. Esta iniciativa representa un esfuerzo continuo por parte de la empresa para llevar la IA a niveles aún más sofisticados y funcionales.
GPT-4, presentado por OpenAI en marzo de 2023 y con una actualización reciente el mes pasado, ha demostrado habilidades impresionantes en la respuesta a preguntas, redacción de correos electrónicos, análisis de datos y generación de imágenes, entre otras funciones. Sin embargo, la empresa busca superar estas capacidades con su nuevo proyecto de IA, en un esfuerzo por mantenerse a la vanguardia de la innovación en el campo de la inteligencia artificial.
La decisión de OpenAI de establecer un nuevo Comité de Seguridad y Protección marca un paso significativo en su compromiso con la seguridad y el manejo responsable de las tecnologías de inteligencia artificial (IA). Este comité, recién anunciado, se ha concebido como un medio para explorar y abordar los riesgos asociados con el desarrollo y despliegue del nuevo modelo de IA, así como con otras tecnologías creadas por la empresa.
La creación de este comité se produce en un momento crucial, después de que OpenAI eliminara recientemente un departamento previamente dedicado a la alineación de superinteligencia. Esta acción había generado preocupaciones significativas dentro del sector tecnológico, ya que el departamento suprimido estaba destinado a abordar los desafíos éticos y de seguridad asociados con la creación de inteligencia artificial avanzada.
Al establecer el Comité de Seguridad y Protección, OpenAI busca tranquilizar a la comunidad tecnológica y al público en general sobre su compromiso continuo con la seguridad y la responsabilidad en el desarrollo de IA. Este comité, se espera, estará compuesto por expertos en seguridad, ética y tecnología, cuya labor será identificar y mitigar los riesgos potenciales asociados con el uso y la implementación de las tecnologías de IA de la empresa.
Además de abordar los riesgos específicos relacionados con el nuevo modelo de IA en desarrollo, se espera que este comité también investigue y proponga medidas para proteger la privacidad, la seguridad y los derechos humanos en el contexto del uso de la IA. Esto incluirá la evaluación de posibles implicaciones sociales, políticas y éticas de las tecnologías de IA, así como la identificación de medidas para garantizar que su uso beneficie a la sociedad en general.
El anuncio del nuevo Comité de Seguridad y Protección se produce en un contexto de creciente conciencia sobre los riesgos y las implicaciones éticas de la inteligencia artificial. La partida de destacados miembros de OpenAI, incluidos el cofundador Ilya Sutskever y el ex codirector del departamento de Superalignment, Jan Leike, ha subrayado la necesidad de una mayor atención a la seguridad, vigilancia y impacto social de las actividades de la empresa.
Además, OpenAI se ha visto envuelta en controversias recientes, como la denuncia pública de la actriz Scarlett Johansson, quien acusó a la empresa de utilizar ilegalmente su voz del largometraje ‘Cher’ para su asistente virtual Sky. Esta acusación ha renovado las preocupaciones dentro de la industria creativa sobre el potencial impacto negativo de la IA en los trabajos y derechos de autor.