OpenAI ha implementado un modelo más económico que permite a los desarrolladores recurrir fácilmente a la potente IA generativa para su uso in-app.

  • Inicio
  • Blog
  • Noticias
  • OpenAI ha implementado un modelo más económico que permite a los desarrolladores recurrir fácilmente a la potente IA generativa para su uso in-app.

La API ChatGPT utiliza el modelo “turbo GPT-3.5”, que también se utiliza para el servicio online ChatGPT. Los desarrolladores pueden simplemente interactuar con ella a través de una sencilla API y utilizarla desde dentro de su sitio web o aplicación para cualquiera de las actividades que ChatGPT es capaz de realizar.

El modelo se basa en un acuerdo con Microsoft y funciona en la infraestructura de cómputo Azure, que se conecta a los endpoints de los clientes. Esto permite que funcione independientemente de la carga del servidor del sitio web de ChatGPT, ofreciendo a las empresas un espacio dedicado para el procesamiento de la IA.

Las empresas pagarán 0,002 dólares (0,0017 euros) por cada 1.000 tokens, que equivalen a unas 750 palabras, una cifra diez veces inferior a los modelos GPT-3.5 existentes.

Sin entrar en detalles, OpenAI señaló que esto era factible gracias a un descenso del 90% en los costes de ChatGPT desde diciembre.

Los usuarios empresariales que busquen un acceso fiable al modelo también podrán adquirir instancias dedicadas, como parte de un acuerdo en el que OpenAI asignará hardware informático Azure exclusivamente para el uso de los clientes.

Según OpenAI, este acuerdo puede ser el más rentable para los desarrolladores que prevean demandas superiores a 450 millones de tokens cada día, y puede acordarse directamente con la empresa.

Desde diciembre, OpenAI no ha alcanzado sus propios objetivos para ofrecer un servicio fiable y sin intermitencia, pero asegura estar decidida a hacerlo “con el tiempo”. “Nuestro tiempo de disponibilidad no ha alcanzado nuestros propios estándares ni los de nuestros usuarios en los dos meses anteriores”, según la entrada del blog.

A menos que la organización opte por ello, los datos procesados a través de la API no se utilizan para el entrenamiento de modelos u otras mejoras de su servicio, y OpenAI ha abandonado su política de “revisión previa al lanzamiento”, que exigía a los desarrolladores indicar para qué utilizaban el modelo antes de poder incorporarlo a su aplicación.

“Los datos subidos a la API de OpenAI no se utilizan para la formación, y tenemos una nueva política de retención de 30 días y estamos abiertos a menos en función de cada caso”, dijo el CEO de OpenAI, Sam Altman, en Twitter. “También hemos eliminado nuestro proceso de aprobación previo al lanzamiento y hemos hecho que nuestros términos de servicio y normas de uso sean más amigables para los desarrolladores”.

El modelo más reciente, el gpt-3.5-turbo-0301, recibirá soporte hasta junio, y una nueva versión estable del gpt-3.5-turbo está prevista para abril.

Los desarrolladores tendrán la opción de utilizar modelos estables o modelos personalizados en función de sus necesidades.

No hay productos en el carrito.

Translate »
X
Bienvenido a Tecleados Consultores
Bienvenido a Tecleados
X