Los chips de inteligencia artificial de Google conocidos como TPU se han convertido en una especie de marca no oficial del sector. Para mucha gente en la industria, TPU es sinónimo de aceleradores de Google en sus centros de datos y en la nube: entrenan modelos gigantes, sirven búsquedas, sostienen anuncios y buena parte de Google Cloud. Justo por eso sorprende que el nombre pueda estar en el aire. 
La empresa californiana Tachyum asegura tener los derechos sobre la marca TPU y ha decidido plantar cara legalmente, abriendo un conflicto que podría obligar a Google a rebautizar una de sus líneas de hardware más emblemáticas.
Según Tachyum, la sigla fue registrada hace años como abreviatura de Tachyum Processing Unit, con protección formal en la categoría de procesadores y soluciones de computación. Con ese argumento, la firma ha acudido a la Oficina de Patentes y Marcas de Estados Unidos (USPTO) para pedir que se reconozca su prioridad sobre el término y se frene el uso de TPU por parte de Google en nombres comerciales, fichas técnicas y material de marketing. Si el regulador compra la tesis de Tachyum, el desenlace podría ir desde un acuerdo de licencia caro hasta un cambio completo de nombre para los chips de IA de Google.
Desde la comunidad técnica, la historia se ve bastante distinta. Durante años, TPU se ha usado de forma coloquial como Tensor Processing Unit, un término puramente descriptivo para un chip especializado en operaciones con tensores, igual que GPU se asocia a procesadores gráficos y CPU a núcleos de propósito general. Para muchos ingenieros, intentar convertir TPU en una marca exclusiva choca con la realidad: el acrónimo ya funciona como palabra del lenguaje técnico, y la idea de “reservarlo” para una sola compañía huele a privatización excesiva del vocabulario de la IA.
Además, el contraste entre el recorrido de cada empresa alimenta la polémica. Google lleva varias generaciones de TPU desplegadas a gran escala en sus data centers y las ofrece abiertamente en Google Cloud como producto comercial. Tachyum, en cambio, vive sobre todo de promesas muy ambiciosas. Su gran apuesta es la familia Prodigy, presentada como un procesador universal fabricado a 2 nm, con hasta 1.024 núcleos de 64 bits por socket y la promesa de unificar cargas de CPU, GPU e IA en un único chip. En sus presentaciones, la compañía asegura que futuras versiones de Prodigy superarán incluso a Rubin Ultra, la próxima plataforma de NVIDIA para IA, con objetivos por encima de los 1.000 PFLOPS en inferencia frente a las pocas decenas de PFLOPS que se atribuyen a Rubin.
El problema es que, de momento, todo eso vive en diapositivas, simulaciones y notas de prensa. No hay oleadas de servidores con Prodigy en producción ni historias de clientes migrando cargas críticas a esta arquitectura. Las TPU de Google, en cambio, ya son parte del paisaje de la nube y mueven trabajo real para clientes que pagan. De ahí que muchos resuman el choque con cierta ironía: Tachyum tiene el nombre en el papel, Google tiene los racks llenos de chips. La sensación de “procesador de PowerPoint contra hardware de verdad” se repite a menudo en los comentarios.
Desde el punto de vista legal, sin embargo, importa menos quién vende más silicio y más qué dicen los registros. El USPTO tendrá que valorar fechas de solicitud, clases de producto y hasta qué punto TPU se considera término descriptivo o marca distintiva. Si Tachyum logra demostrar prioridad y evitar que el término se considere demasiado genérico, Google se verá ante una serie de opciones incómodas: impugnar el registro alegando que la sigla ya se ha vuelto genérica, negociar una licencia para seguir usando el nombre o lanzarse a un rebranding serio de sus aceleradores.
Cambiar de nombre a estas alturas parece drástico, pero no sería algo sin precedentes. El mercado de chips de IA está lleno de marcas inventadas: AWS presume de Trainium, Intel de Gaudi, y todo el mundo juega con variaciones de XPU. La comunidad ya está proponiendo alternativas, medio en broma, medio en serio: desde GTI (Google Tensors Included), que suena a coche deportivo para el centro de datos, hasta TPC (Tensor Processing Core) u otras siglas que mantengan el sabor “tensor” sin chocar de frente con TPU. Un nuevo nombre, bien trabajado, podría incluso servir de excusa para relanzar la marca de hardware de IA de Google.
Debajo del circo de memes hay un debate más profundo: ¿hasta dónde debe llegar el poder de una marca en un terreno tan técnico? Muchos expertos defienden que expresiones como tensor processing unit deberían ser tratadas como lenguaje descriptivo, libre de uso, para que la documentación, la investigación y la comunicación entre proveedores sigan siendo claras. Otros recuerdan que Tachyum registró una marca concreta ligada a su expansión Tachyum Processing Unit y que, desde la lógica estricta del derecho de marcas, está en su derecho de defenderse frente a posibles confusiones.
La disputa, además, refleja el peso creciente del marketing en la carrera por la IA. Ya no se compite solo con FLOPS, eficiencia energética y benchmarks, sino también con historias y nombres que se quedan en la cabeza del cliente. Google con TPU, NVIDIA con sus GPUs y plataformas futuras, startups que hablan de “chips universales” y hasta chistes sobre TPU como Total Power draw Unknown cuando la factura de luz del data center se dispara: todo forma parte del mismo tablero. En ese contexto, el caso Tachyum vs Google puede sentar un precedente incómodo. En una era en la que las siglas técnicas se viralizan antes de que el primer chip salga de fábrica, decidir quién es dueño de tres letras se convierte, sorprendentemente, en un asunto con impacto real sobre el negocio.
1 comentario
para mí TPU ya es un término genérico de manual, rarísimo que alguien pueda ponerle candado así al vocabulario de la industria