Se dice que Apple está experimentando con inteligencia artificial que genera lenguaje
Si no fuera por el Silicon Valley Bank (SVB) la semana pasada, parece que casi todas las conversaciones en tecnología se centran en la IA y los chatbots. En los últimos días, OpenAI, respaldado por Microsoft, lanzó un nuevo modelo de lenguaje llamado GPT-4. Su competidor, Anthropic, ha lanzado un chatbot en la nube. Google dijo que está integrando IA en sus herramientas de espacio de trabajo como Gmail y Docs. Microsoft Bing ha llamado la atención sobre sí mismo con su búsqueda impulsada por chatbot. ¿El único nombre que falta en la acción? manzana.
El mes pasado, la empresa con sede en Cupertino realizó un evento interno centrado en la inteligencia artificial y los grandes modelos de lenguaje. Según un informe de New York TimesMuchos equipos, incluidas las personas que trabajan en Siri, prueban Language Concepts con regularidad.
La gente se ha quejado de que Siri no entiende las consultas (incluidas las mías) durante mucho tiempo. Siri (y otros asistentes como Alexa y Google Assistant) no entienden los diferentes acentos y fonéticas de las personas que viven en diferentes partes del mundo, incluso si hablan el mismo idioma.
La nueva popularidad de ChatGPT y la búsqueda basada en texto facilita que las personas interactúen con diferentes modelos de IA. Pero actualmente, la única forma de chatear con el asistente de IA de Apple, Siri, es habilitar la función en la configuración de Accesibilidad.
En una entrevista con The New York Times, John Burke, un ex ingeniero de Apple que trabajó en Siri, dijo que el asistente de Apple era un desarrollo lento debido a un “código no deseado”, lo que dificultaba incluso las actualizaciones de funciones básicas. También mencionó que Siri tenía una gran base de datos con muchas palabras. Entonces, cuando los ingenieros necesitaban agregar funciones o frases, la base de datos tenía que ser reconstruida, un proceso que supuestamente tomó hasta seis semanas.
El informe del New York Times no especificó si Apple está construyendo sus propios modelos de lenguaje o quiere adoptar uno existente. Pero al igual que Google y Microsoft, la empresa dirigida por Tim Cook no querrá limitarse a ofrecer un chatbot impulsado por Siri. Apple se ha enorgullecido durante mucho tiempo de ser un aliado de artistas y creadores, y es de esperar que quiera aplicar los avances en los paradigmas del lenguaje a esas áreas.
La compañía ha estado usando funciones impulsadas por IA desde hace un tiempo, incluso si no era obvio al principio. Estos incluyen mejores sugerencias de teclado, manipulación en fotografía, desbloqueo de máscaras con Face ID, separación de objetos del fondo en todo el sistema, lavado de manos y detección de fallas en Apple Watch, y la función de karaoke más reciente en Apple Music. Pero ninguno de ellos puede ser tan cara a cara como los chatbots.
En general, Apple se ha mantenido en silencio sobre sus esfuerzos de IA. Pero en enero, la compañía inició un programa que ofrece a los autores servicios de narración impulsados por IA para convertir sus libros en audiolibros. Esto indica que el fabricante de iPhone ya está pensando en casos de uso de IA generativa. No me sorprendería si escuchamos más sobre los esfuerzos de la compañía en estas áreas en la Conferencia Mundial de Desarrolladores (WWDC) en unos meses.
“Alborotador. Amante de la cerveza. Total aficionado al alcohol. Sutilmente encantador adicto a los zombis. Ninja de twitter de toda la vida”.