La velocidad es relativa.

Según el contexto, "rápido" puede significar cosas diferentes. Usain Bolt puede correr 100 metros en 9,58 segundos; los traders de alta frecuencia pueden negociar miles de millones en una fracción de segundo.

“Uno se acostumbra a números muy grandes a velocidades realmente locas”, dice Dave Lauer, un veterano del trading de alta frecuencia. Anteriormente analista de investigación cuantitativa en Citadel Investment Group y responsable del desarrollo de sus modelos de trading, Lauer también trabajó para Allston Trading y luego trabajó en Better Markets investigando el trading de alta frecuencia y su impacto en el mercado, antes de pasar a la bolsa de valores IEX.

El comercio de alta frecuencia es un método de comercio algorítmico en el que se compran y venden grandes volúmenes de acciones de forma automática, en una fracción de segundo.

“Son velocidades que el cerebro no puede comprender”, dice Lauer. “Teníamos estrategias que suponían millones de dólares en milisegundos que entraban y salían. Y, a veces, podía salir mal y había que analizar las cosas para intentar averiguar qué nos hizo perder millones en ese momento”.

Para muchos, las bolsas de valores evocan imágenes de salas estrechas llenas de gritos y señales manuales para realizar transacciones, pero estas imágenes son, a esta altura, arcaicas.

En los años 1980 y 1990, las transacciones por teléfono y vía electrónica se convirtieron en la norma y los operadores pudieron finalmente volver a bajar las manos. Hoy, los parqués son algo simbólico. Los mercados de valores son, en cambio, una red de centros de datos y bases de datos, y todas las transacciones se realizan a través de Internet.

Con la eliminación progresiva de las operaciones a viva voz y la introducción de nuevas tecnologías (en particular, cuando el NASDAQ introdujo una forma de operaciones puramente electrónica en 1983), las operaciones de alta frecuencia (HFT) se desarrollaron gradualmente y han seguido acelerándose.

“La HFT no es realmente una estrategia comercial, es una tecnología y un enfoque”, explica Lauer. “Impulsa muchas estrategias comerciales.

“La HFT utiliza los ordenadores y equipos de red más rápidos de forma distribuida para comprar y vender cualquier cosa con gran rapidez. No tiene por qué ser solo en los mercados de valores o de futuros como el de las criptomonedas. En términos generales, es una forma de arbitrar los mercados”, afirma.

El arbitraje es la compra y venta simultánea del mismo activo en diferentes mercados con el fin de obtener beneficios a partir de pequeñas diferencias y fluctuaciones en el precio de cotización del activo.

Un ejemplo que ofrece Lauer es el arbitraje de mercado lento, que es una forma de lo que él llama "comercio estructural".

“Muchas bolsas tienen tipos de órdenes llamadas órdenes de paridad de punto medio. Estas órdenes cubren el punto medio de la Mejor Oferta y Demanda Nacional (NBBO, por sus siglas en inglés). Si usted, como empresa de HFT, sabe que la NBBO ha cambiado antes que la bolsa, entonces puede seleccionar todas las órdenes de punto medio obsoletas y, cuando la NBBO cambia, gana dinero”.

GettyImages-2162521679.original
– GettyImages

Sin embargo, las empresas de HFT no solo intentan ser más rápidas que la bolsa, sino que también compiten constantemente entre sí para ser las primeras en la fila. Es esta competencia la que ha llevado a los operadores de todo el mundo a innovar constantemente su tecnología, esforzándose por ahorrar un microsegundo o un nanosegundo, en todos los niveles de sus equipos de red, hardware informático y software.

Hay bolsas de valores en todo el mundo, pero gran parte de las transacciones que se realizan se concentran en lo que se conoce como el “Triángulo de Nueva Jersey” y Chicago.

“El Triángulo de Nueva Jersey se refiere a un área donde se concentran varias bolsas y sus centros de datos. Está la Bolsa de Nueva York, que se encuentra en Mahwah, y luego está el centro de datos de Carteret, que alberga el NASDAQ, y luego está Secaucus, donde se encuentran todas las demás bolsas, todo lo que no sea la Bolsa de Nueva York o el NASDAQ”, explica a DCD Cliff Maddox, director de desarrollo comercial de la empresa de FPGA (hardware especializado que se puede optimizar para HFT) NovaSparks .

“Alrededor del 60 por ciento del volumen de comercio global ocurre en esos tres centros de datos (y Chicago), y ha aumentado sustancialmente en los últimos 15 años, de algo así como el 33 por ciento al 60 por ciento”.

Todos esos centros de datos están ubicados en el mismo lugar (con un alto costo) y conectados entre sí mediante cables o, en otros casos, mediante comunicaciones basadas en microondas o láser.

Trading de alta frecuencia: una mirada al pasado

A lo largo de la investigación del DCD sobre la HFT, todos los entrevistados mencionaron una cosa de forma constante: Flash Boys. Flash Boys, escrito por Michael Lewis y publicado en 2014, expuso la HFT de muchas maneras y la puso en conocimiento del público. Su recepción fue, por decir lo menos, mixta.

El mensaje principal del libro era que los cambios tecnológicos en el comercio, junto con prácticas comerciales poco éticas, habían llevado a que la Bolsa de Valores de Estados Unidos se convirtiera en un mercado manipulado.

Naturalmente, muchas instituciones financieras -y aquellas que se dedican al comercio de alta frecuencia- criticaron el libro y sus afirmaciones.

Cabe destacar que Manoj Narang, director ejecutivo de la firma de operaciones de alta frecuencia Tradeworx, sostuvo que el libro de Lewis era más "ficción que realidad". Lauer, al hablar del libro con DCD, conjetura que "acertó en muchas cosas y se equivocó en muchas".

“Cometió algunos errores factuales básicos, pero quienes se dedican a analizar minuciosamente lo que es verdad y lo que no lo es no entienden el sentido del libro. El libro trata de los conflictos de intereses y de la plenitud de esta actividad”, afirma Lauer. “Si hablas con gente que trabaja en el campo de las altas frecuencias, te dirán que el libro es pura ficción, pero yo lo viví. El libro no es una ficción de ese tipo”.

Hacia el comienzo de Flash Boys, Lewis escribe sobre la línea indiscutiblemente real de "Spread Networks", un cable que conecta la Bolsa Mercantil de Chicago y un centro de datos en Carteret, Nueva Jersey, junto a la bolsa NASDAQ. Desde entonces se ha ampliado al centro de datos Equinix NY4 IBX en Secaucus y a otro en Newark.

La línea se creó en un secreto casi absoluto en 2010 (lo que luego se convirtió en ficción en la película The Hummingbird Project) y se desarrolló bajo la premisa de que un cable directo sería más rápido que las conexiones actuales, lo que daría a las empresas que alquilaran ancho de banda una ventaja inherente. Esa ventaja era del orden de un solo milisegundo.

El primer cable costó unos 300 millones de dólares (en aquel momento) y su construcción implicó trazar una línea recta entre los dos centros de datos, atravesando montañas y otros terrenos complicados. Cuando se construyó, los primeros 200 participantes del mercado de valores que estuvieron dispuestos a pagar por adelantado un contrato de cinco años recibieron un descuento: 10,6 millones de dólares, en lugar de 20 millones.

En total, esto era aproximadamente diez veces el precio de las rutas de telecomunicaciones estándar. Pero con millones de transacciones en cuestión de segundos y la amenaza de que cientos de operadores pudieran estar delante de usted en la fila, ese gasto valió la pena.

Sin embargo, esto ocurrió hace 14 años, y en una industria en la que el cambio se produce a un ritmo mucho más rápido que lo habitual, las actualizaciones tecnológicas podrían darse en otros lugares.

Mientras todo el sector persigue esa reducción de milisegundos o incluso nanosegundos, siempre se buscan nuevas soluciones.

En algún momento, se comprendió que el uso de fibra óptica no era en realidad “la velocidad de la luz” en una distancia recta, ya que la señal rebotaría dentro del propio cable. Esto condujo al uso de microondas.

Usman Ahmad, científico de datos jefe y desarrollador cuantitativo de Acuity Knowledge Partners, una empresa de investigación e inteligencia empresarial en el sector financiero, le dice a DCD que las microondas fueron realmente la “fase dos” de la transmisión de datos en la industria HFT.

“Las microondas viajan por el aire y se puede obtener una línea recta de torre a torre. Por lo tanto, se tiene un emisor de microondas que transmite datos y un detector en otra torre en lo alto, y se obtiene una línea recta agradable que puede transmitir datos más rápido que la fibra óptica”, explica Ahmad. “Pero son inestables por sí mismas. Las condiciones climáticas adversas pueden afectarlas, por ejemplo”.

McKay Brothers y Tradeworx comenzaron a ofrecer servicios de radio por microondas en 2012.

Resulta altamente impráctico que los comerciantes se queden sin trabajo simplemente porque llueve, por lo que, si bien se introdujo gradualmente el microondas, se seguiría utilizando fibra óptica con fines de redundancia.

Las microondas fueron la fase 2, pero es cuando hablamos de la fase 3 que Ahmad se entusiasma realmente.

“Lo que están haciendo ahora -y sinceramente estoy realmente sorprendido por la tecnología- es que están usando algo un poco mejor y con una frecuencia más corta, mmWave u onda milimétrica”.

MmWave se refiere a ondas electromagnéticas que tienen una longitud de onda entre 10 mm y 1 mm, una frecuencia entre 30 GHz y 300 GHz y se encuentran entre la banda de frecuencia súper alta y la banda de infrarrojos lejanos.

Pero uno de los mayores obstáculos del método mmWave es que, si bien tiene un mayor ancho de banda, viaja distancias más cortas.

Joe Hilt, director comercial de Anova Financial Networks, una de las empresas más importantes en este nuevo método de transmisión de datos comerciales, explica el problema al que se enfrenta DCD : “La tecnología de microondas cubre mayores distancias, pero tiene menos ancho de banda, por ejemplo, 550 megabits. Por otro lado, las ondas milimétricas pueden ofrecer a un cliente, por ejemplo, 1 gigabit de ancho de banda, pero necesitan más 'saltos' a lo largo de la red”.

“Anova es un poco diferente porque utilizamos microondas, ondas milimétricas y luego hacemos algo llamado óptica de espacio libre”, explica Hilt.

Anova empezó a utilizar la tecnología de óptica espacial libre “hace unos ocho o nueve años”. La solución ya la había utilizado anteriormente el Departamento de Defensa, por ejemplo, para la comunicación entre aviones de combate.

La óptica de espacio libre (en la que los datos se transmiten a través del "espacio libre" en lugar de a través de un material sólido como los cables de fibra óptica que utilizan rayos láser) también está siendo utilizada por la empresa matriz de Google, Alphabet, en su proyecto Taara. Taara está utilizando la tecnología para llevar acceso a Internet de alta velocidad a áreas rurales y remotas, como India, Australia, Kenia y Fiji, y puede transmitir información entre terminales a velocidades de hasta 20 gigabits.

“Es una tecnología láser, no es muy diferente a la que se usa para encender y apagar el televisor, excepto que la estamos llevando a 10 kilómetros”, dice.

Cada 10 kilómetros, hay un "salto", o un transmisor y receptor que toma el mensaje y lo pasa al siguiente salto hasta que finalmente los datos llegan a su ubicación final.

Anova se encarga de cada elemento de estas redes. “Nosotros fabricamos las radios, las instalamos y las mantenemos. Gracias a esto, hemos podido llegar a un punto en el que nuestras radios ahora pueden ofrecer 10 gigabits de ancho de banda en lugar de solo uno. Esto es importante porque estamos en un mercado en el que antes los clientes compraban 10, 20 o 50 megabits y ahora pueden comprar un gigabit de ancho de banda, lo que es casi como si hubieran construido su propia red”.

GettyImages-1637871845.original
– GettyImages

Se utilizan las tres tecnologías y, en definitiva, la medida de su ventaja radica en la proximidad a los centros de datos. Según Hilt, las HFT intentan utilizar la mayor cantidad posible de radio y la menor cantidad de fibra, por lo que esos receptores deben estar en el techo de un centro de datos o en un poste junto a él.

Conceptualizar estos métodos de transmisión es relativamente sencillo, pero implementarlos no lo es tanto.

Las líneas ópticas en el espacio libre deben desplegarse dentro de la línea de visión. En otras palabras, aunque cada salto esté a 10 km de distancia, no puede haber ningún obstáculo en el camino entre ellos.

Antes de comenzar la instalación, Anova inspeccionará la ruta y verá qué puede estorbar, ya sean árboles o un edificio. “Si hay un edificio en el camino, nuestro primer punto de contacto sería ver si podemos alquilar espacio en el techo”, dice Hilt. “Colocaríamos el mástil allí mismo y llevaríamos la señal por encima del sitio y por el otro lado. Esa es la forma más rápida de evitarlo”.

Como parte de su operación de mantenimiento, Anova “recorrerá” la ruta periódicamente y verificará si hay nuevas construcciones por venir o cualquier cosa desde una perspectiva inmobiliaria que pueda significar que necesitan hacer algún ajuste.

Las empresas de HFT suelen alquilar ancho de banda en la red de Anova, aunque en ocasiones se contrata a la empresa para que construya una red privada para un cliente. Según Hilt, esto solo ocurre en el ámbito de las "metrobases" (por ejemplo, conectando el NASDAQ con la NYSE), no en rutas de larga distancia.

Independientemente de si se utiliza tecnología de microondas, mmWave o de fibra óptica de espacio libre, una vez que los datos llegan al centro de datos, viajan a través de un cableado de fibra óptica. En este punto, existe una ventaja en la ubicación real de los servidores que realizan las transacciones en el centro de datos: después de todo, cuanto más corto sea el cable, menor será la latencia. Esto llevó a las empresas de alta frecuencia a competir por el espacio inmobiliario privilegiado que acercaría sus servidores al motor de conexión.

El accidente repentino

Tras el Flash Crash de 2010, se introdujeron regulaciones que limitaron las técnicas de reducción de latencia de HFT.

El papel de HFT en el Flash Crash es indiscutible, aunque no fue el desencadenante inicial.

El 6 de mayo de 2010 fue un día despejado y cálido en Nueva York. Para quienes no estaban en el parqué, habría parecido un jueves como cualquier otro: se acercaba el fin de semana y el clima era optimista. A la 1 de la tarde, las cosas habían empeorado.

El desplome debe recordarse en su contexto. El 6 de mayo comenzó con cierto nerviosismo en el mercado. Los operadores se habrían despertado con noticias de un mercado político y económico problemático al otro lado del charco en Europa, lo que provocó un sentimiento generalizado negativo en el mercado.

Además de esto, un operador de fondos mutuos había iniciado un programa inusualmente grande y defectuoso para vender 75.000 contratos de futuros E-Mini S&P 500, valorados entonces en 4.100 millones de dólares. El algoritmo utilizado para gestionar la venta había tenido en cuenta por error solo el volumen, pero no el tiempo ni el precio. Como resultado, la venta se ejecutó en solo veinte minutos, en lugar de las cinco horas o más que se esperarían normalmente.

Los algoritmos HFT, por su naturaleza enfocada en ser lo más rápidos posible, fueron naturalmente los primeros compradores de los contratos, para luego volver a venderlos simultáneamente, creando lo que el informe oficial de la Comisión de Comercio de Futuros de Productos Básicos (CFTC) y la Comisión de Bolsa y Valores (SEC) llamaron el efecto “patata caliente”.

En última instancia, esto hizo bajar los precios a un ritmo rápido y los compradores no pudieron o no quisieron proporcionar liquidez.

Otros participantes del mercado comenzaron a retirarse del mercado y a detener las operaciones. Los creadores de mercado oficiales utilizaron “cotizaciones de cierre” en las que redujeron las ofertas de compra de acciones a $0,01 y aumentaron las ofertas de venta hasta el máximo de $99.999,99, lo que impide las operaciones.

Los valores de las acciones se volvieron completamente impredecibles: algunos cayeron prácticamente a nada y otros se dispararon para luego volver a caer a la Tierra sin una razón clara.

La estabilidad se alcanzó a las 3 p. m. Más tarde, después del cierre de los mercados, la Autoridad Reguladora de la Industria Financiera (FINRA) se reunió con las bolsas y todos acordaron cancelar todas las operaciones que se habían realizado durante el Flash Crash.

Si bien esto puede verse como una situación en la que “no hay daño ni falta”, lo que demostró fue el potencial de inestabilidad masiva en el mercado, directamente relacionado con el uso de la tecnología para el comercio.

El proceso de regulación de la HFT ha sido, cuanto menos, lento. Inmediatamente después de la crisis de 2010 se hizo un llamamiento a favor de una mayor transparencia, pero las empresas de HFT, naturalmente, no están dispuestas a ceder lo que en realidad es propiedad intelectual. Los detalles de sus estrategias son la base de su éxito y hacer públicos esos detalles es perder su ventaja.

En 2012, se fundó una nueva bolsa, Investors Exchange (IEX), que fue diseñada para mitigar directamente los efectos negativos del comercio de alta frecuencia.

El motor de emparejamiento de IEX está ubicado al otro lado del río Hudson, en Weehawken, Nueva Jersey, mientras que su punto de presencia inicial está en un centro de datos en Secaucus, Nueva Jersey. Cabe destacar que la bolsa tiene una bobina de fibra óptica de 61 kilómetros delante de su motor de negociación, lo que genera un retraso de 350 microsegundos, diseñado para anular algunas de las ventajas de velocidad. La Bolsa de Nueva York ha adoptado posteriormente un “reductor de velocidad” similar.

Hablando en IEX, Lauer explica: “Todos, independientemente de dónde se encuentren, obtienen la misma longitud de cable, por lo que ahora todos están en igualdad de condiciones desde una perspectiva de latencia dentro del centro de datos.

“La idea de IEX, que es importante, es que la bolsa siempre será más rápida que sus participantes más rápidos. Y eso es lo que realmente la diferencia de las otras bolsas que dicen que HFT será más rápida que ellos”.

La estructura actual del mercado está formada por organizaciones autorreguladoras y bolsas de valores que también tienen ánimo de lucro y cotizan en bolsa, pero la forma en que las bolsas ganan dinero ha cambiado, explica Lauer.

“Las bolsas ya no ganan mucho dinero con el trading, la mayor parte proviene de los datos y la conectividad, y de la venta de feeds privados a empresas de alta frecuencia. Además, existe un subsidio público masivo que se paga a las bolsas debido al feed de datos públicos de SIP”.

Según Lauer, gran parte de este cambio fue causado por los intercambios que pagaban reembolsos por órdenes pasivas y cobraban tarifas por órdenes agresivas, lo que resultó en una compresión significativa del spread (cuando la diferencia en el rendimiento entre bonos con el mismo vencimiento se reduce).

IEX como exchange adopta un enfoque diferente: cobra mucho más que otros exchanges por comerciar, pero casi nada por los datos y la conectividad, más o menos lo que son sus costos.

De todos modos, como cada exchange crea, hasta cierto punto, sus propias regulaciones, el impacto real en “nivelar el campo de juego” para HFT ha sido limitado.

Lauer opina al respecto que: “[Las bolsas] están en deuda con sus clientes más importantes porque tienen que obtener ganancias trimestrales y toman decisiones que no necesariamente favorecen mercados justos y eficientes, que es lo que se supone que es su responsabilidad autorregulatoria”.

Dentro del centro de datos

Independientemente de la postura del exchange sobre la estandarización de la latencia, todavía hay avances por lograr dentro del centro de datos, tanto a través del cómputo como del software.

En el sector de la computación en la nube, los principales hyperscalers como Amazon Web Services, Google y Microsoft han aumentado la vida útil de sus servidores a seis años para reducir los costos operativos y alcanzar los objetivos de Net Zero.

En comparación, Lauer nos dijo que: “Obteníamos servidores nuevos cada seis o doce meses. Ese era el ciclo de actualización. Algunos de ellos se reutilizaban como clústeres de investigación, pero a veces nos preguntábamos: '¿Qué vamos a hacer con todo esto?' y los vendíamos. En un momento dado, tenía en mi casa seis servidores de primera línea montados en bastidor donde estaba ejecutando un clúster de investigación solo por diversión”.

La razón sencilla de estas actualizaciones rápidas es que si sale un equipo que puede operar más rápido que el que estás usando actualmente, entonces es momento de realizar una actualización.

Este ciclo de actualización constante y la elevada inversión de capital inicial pueden dificultar el ingreso de nuevos participantes al HFT.

Christina Qi era una estudiante universitaria en el Instituto Tecnológico de Massachusetts cuando comenzó a comerciar desde su dormitorio.

“Estaba operando desde mi dormitorio, haciendo operaciones cuantitativas que utilizaban análisis fundamentales para adivinar si las acciones subirían o bajarían cada día”, explica.

Domeyard Office
– Domeyard

“Estábamos usando una base matemática, mirando el historial de diferentes precios o la relación entre diferentes acciones, y si subirían o bajarían, y fue entonces cuando nos dimos cuenta de que cuanto más rápido fueras en ese espacio, más ventaja tendrías”.

Qi fundó Domeyard LP, una empresa de operaciones de alta frecuencia que, en su apogeo, negociaba miles de millones de dólares en volumen diariamente. La empresa operó entre 2012 y 2022, pero, como señala Qi, cada vez le resultaba más difícil competir y escalar.

“En la actualidad, con la HFT, la mayor parte de ese comportamiento y actividad en los mercados proviene de las 10 o 15 empresas más importantes de Estados Unidos que se dedican a ello. Dominan los mercados en la actualidad; no verás entrar a una pequeña empresa emergente. En aquel entonces, éramos raros en el sentido de que terminábamos operando durante muchos años, pero nos llevó mucho tiempo empezar, y después de siete u ocho años empezamos a operar miles de millones”.

Con el tiempo, Domeyard empezó a enfrentarse a limitaciones. Con una mayor frecuencia, la capacidad de negociación de la empresa era menor. “Terminamos con una lista de espera de inversores que querían entrar y no podíamos aceptar a ninguno. Fue realmente frustrante. Llegamos a un punto en el que habríamos tenido que diversificarnos, por ejemplo, haciendo operaciones a más largo plazo, acciones privadas o bienes raíces. Pero nos habíamos hiperconcentrado y pusimos todo nuestro dinero en la canasta de HFT”.

Cuando llegó la pandemia, Domeyard tuvo problemas, antes de finalmente cerrar sus operaciones en 2022. Cuando se le pregunta si la empresa alguna vez tuvo problemas frente a las regulaciones, Qi dice "en realidad no".

“Había regulaciones reales, pero la mayoría de ellas eran solo requisitos de presentación de informes o, a veces, requisitos de recaudación de fondos, como '¿necesitamos tener otra exención de responsabilidad en nuestra presentación, por ejemplo?' Pero no había nada que pudiera detener el comercio de alta frecuencia".

Qi experimentó un nivel similar de ciclos de actualización de hardware y excesos del que habló Lauer, y señaló que a veces Domeyard tenía FPGAs tirados por la oficina; y dice en broma que habrían sido fáciles de robar y son piezas de hardware costosas.

Servidores, FPGAs y más

El hardware que utilizan principalmente las empresas de alta frecuencia se conoce como matrices de puertas programables en campo (FGPA). Se trata de circuitos integrados que ofrecen a los clientes la posibilidad de reconfigurar el hardware para cumplir con los requisitos de casos de uso específicos.

Cliff Maddox, de NovaSparks, un importante proveedor de FPGA para el sector HFT, le dice a DCD que el beneficio de un FPGA es que puede lograr "una latencia drásticamente mejor que la que se puede obtener escribiéndolo en software y un mejor consumo de energía".

Un FPGA se diferencia de un chip de uso general como una CPU o GPU en que tiene un propósito específico. Maddox lo explica comparándolo con el procesador Intel 8088 de finales de los años 70.

“Básicamente, se le podía dar [al Intel 8088] cualquier instrucción que se quisiera. Puede que fuera más lento que los actuales, pero podía hacer muchas cosas diferentes. Los ordenadores, en general, siguen siguiendo ese conjunto de instrucciones: han añadido nuevas funciones, la velocidad del reloj ha aumentado enormemente y hay más núcleos. Pero nos estamos acercando al límite de lo que es posible con el silicio”, afirma Maddox.

“La Ley de Moore no ha cambiado mucho y, en cierto modo, ha desaparecido. Ya no se consigue el doble de rendimiento energético cada año que antes, eso ha desaparecido. Por eso, ahora la única forma de ampliar realmente la escala es recurrir a una arquitectura física especializada”.

El FPGA es un chip en el que se puede grabar un diseño, lo que significa que el chip hace exactamente lo que uno quiere que haga. Está optimizado a nivel de hardware.

NovaSparks asume la responsabilidad de perfeccionar el FPGA para las empresas comerciales: “Nos sentamos y lo optimizamos al máximo todos los años. Seguimos haciéndolo más rápido, agregando pequeños ajustes a lo que la gente quiera y, en última instancia, tratamos de convencerlos de que no lo construyan ellos mismos, sino que nos encarguen hacerlo por ellos”.

Maddox señala de manera similar que hay alrededor de 10 empresas que tienen los recursos disponibles para hacer “todo lo posible” para optimizar esto (citando a Citadel como ejemplo), pero les costaría varias veces más hacerlo ellos mismos en lugar de simplemente contratar a NovaSparks para manejarlo.

La empresa ofrece 50 chips con diferentes parámetros, de modo que los operadores de alta frecuencia pueden seleccionar los que mejor se adapten a sus estrategias comerciales y realizar ajustes periódicos para mejorarlos. Las revisiones importantes son menos frecuentes.

“En 2019, hicimos una actualización física de un chip que ya llevaba un año y medio en el mercado. Analizamos todos los chips que salen al mercado, pero no ha habido ninguno que suponga una mejora significativa como para que valga la pena una actualización completa”, explica Maddox.

De todas formas, a través de esos ajustes y retoques iterativos, NovaSparks ha mejorado la latencia de ese chip en un 25 por ciento aproximadamente. El consumo de energía también se reduce drásticamente, porque el FPGA solo hace lo único para lo que está optimizado.

La empresa está abierta a nuevas soluciones. “Nos gustaría encontrar un nuevo chip. Están mejorando de muchas maneras. Por ejemplo, están mejorando las interfaces, por lo que la interfaz de 10 gigas para Ethernet ha mejorado. Pero cuando sumas todos esos ajustes y los llevas a nuestra escala, todavía no hemos encontrado algo que sea lo suficientemente mejor en términos generales como para dar ese salto, pero creo que se está acercando”.

Maddox señala, medio en broma, que NovaSparks no está muy dispuesta a compartir demasiados planes futuros, haciendo referencia al "efecto Osborne".

NovaTick Appliance
– NovaSparks

“El ordenador Osborne es algo de principios de los años 80. Cuando Osborne sacó el ordenador, todo el mundo pensó que era genial, y luego Osborne empezó a hablar del próximo ordenador, así que nadie compró el Osborne actual porque estaban esperando el siguiente”.

Más allá del FPGA, existe una versión aún más especializada conocida como ASIC (circuito integrado de aplicación específica).

Maddox explica que el FPGA es un chip que se puede imprimir a mano, pero el ASIC es el que se fabrica desde cero. "Eso podría costar unos 30 millones de dólares", dice Maddox. Aunque es más específico, hacer una actualización o un ajuste llevaría meses, algo que no está necesariamente en línea con la filosofía de HFT de que cuanto más rápido, mejor.

Si bien el FPGA parece dominar con aquellas empresas a la cabeza del sprint HFT, los chips más generales aún tienen un papel que desempeñar.

Blackcore Technologies se especializa en servidores optimizados para HFT: su velocidad aumenta mediante “overclocking”.

“Tomamos el hardware relativamente estándar y lo llevamos más allá de sus especificaciones de fabricación estándar”, explica James Lupton, director de tecnología de Blackcore.

“El overclocking es algo que se practica desde hace mucho tiempo en la industria de TI. Creo que es parte de la naturaleza humana tomar algo e intentar hacerlo funcionar más rápido. Desde que tenemos la informática, hay historias de personas que toman un procesador de 100 megahercios y tratan de hacerlo funcionar a 200 megahercios”.

Para satisfacer las necesidades de los HFT, así como de los jugadores y otros casos de uso, las CPU se lanzan con la función de overclocking habilitada. Quienes crean las CPU trabajan en conjunto con los proveedores de placas base. “Esto permite trabajar a bajo nivel y ajustar ciertas variables dentro de una placa base y una CPU para aumentar la velocidad del reloj y también otras cuestiones técnicas como la velocidad de la memoria caché o la velocidad de la memoria”.

Blackcore ha aprendido, durante los ocho años que lleva en el mercado, cómo seguir el camino correcto para hacer que el servidor sea más rápido sin correr el riesgo de exigirle demasiado.

“Las CPU que se venden están diseñadas para funcionar con una configuración específica: la temperatura, la potencia y todo está diseñado en función de la especificación con la que se entregaron. Por lo tanto, cuando empezamos a jugar con ellas, les estamos poniendo más potencia de la que tal vez necesariamente estaban diseñadas para soportar”.

Lupton añade: “También van a generar más calor que antes. Por eso tenemos que ser muy selectivos a la hora de asegurarnos de que tenemos componentes auxiliares con una placa base que pueda proporcionar esa energía a la CPU de forma segura, y de que tenemos los sistemas de refrigeración adecuados para poder enfriar el calor adicional que se genera con el overclocking”.

Como es el estándar con los racks de alta densidad, este sistema está refrigerado por líquido. Blackcore ofrece un sistema de servidor de montaje en rack completo con refrigeración por líquido ya en la unidad a través de un circuito de refrigeración por líquido autónomo dentro del propio chasis del servidor, lo que significa que los clientes no necesitan ninguna infraestructura de centro de datos adicional y pueden implementarse en un rack de centro de datos refrigerado por aire estándar.

Blackcore está buscando clientes que dependan de un algoritmo de negociación basado en software. Lupton reconoce que los FPGAs ofrecen una solución de menor latencia, pero señala que la barrera de entrada es mayor.

“Es muy, muy rápido, pero reduce la complejidad: no se pueden cubrir todas las estrategias en ese único escenario, por lo que muchos clientes terminan necesitando la CPU rápida también para otras estrategias o para reprogramar el FPGA en tiempo real”.

Los ASIC, en particular, no se pueden modificar una vez fabricados y son más caros, aunque ofrecen una latencia más baja.

HFT: ¿Una contribución valiosa a la sociedad o una pérdida de recursos?

La gran cantidad de dinero y capacidad intelectual que se invierte en la HFT y en ahorrar ese último nanosegundo es monumental, y quienes se benefician de la técnica sostienen que tiene un impacto positivo en la economía y en la sociedad en general.

También lucharán con uñas y dientes contra cualquier movimiento que parezca dañar sus esfuerzos con el arbitraje de latencia.

De hecho, las empresas que se dedican a estas prácticas llegan al extremo de negar su existencia. Según Lauer, tras la publicación de Flash Boys, muchas empresas argumentaron que “antes se producía arbitraje de latencia, pero ya no”, pero cuando se trató del intento de IEX de introducir un nuevo tipo de orden de compra de acciones que mitigara algunas de esas ventajas basadas en la latencia, Citadel demandó a la SEC en 2020.

Para contextualizar, vale la pena señalar que Citadel fue multado previamente con $22,6 millones por "engañar a los clientes sobre los precios de las transacciones" en 2017, con respecto a los cargos de que su unidad de negocios que manejaba pedidos de clientes minoristas de otras firmas de corretaje les hizo declaraciones engañosas sobre la forma en que fijaba los precios de las transacciones.

El tipo de orden de acciones se conocía como “orden D-Limit”. En términos simples, D-Limit utilizaba las mismas matemáticas que sustentan muchos modelos de negociación de alta frecuencia para predecir cuándo se avecina un cambio de precio inminente y, cuando esto se activa, evita que se realicen transacciones hasta que se hayan reajustado los precios de los tipos de órdenes, eliminando así la oportunidad de que las HFT se aprovechen de esto.

Si el arbitraje de latencia "ya no se utiliza", esto no sería un problema. Pero para las empresas de HFT sí lo era, de ahí la demanda de Citadel en la que la empresa afirmaba que esto perjudicaría a los inversores minoristas al retrasar las transacciones.

Cabe añadir que la SEC y las firmas que representan a los inversores minoristas y sus intereses se mostraron unánimes a favor de esta propuesta. Citadel perdió la demanda en 2022.

Citadel también encabezó una demanda que buscaba que se ilegalizara el Consolidated Audit Trail, una base de datos que en mayo de 2024 comenzó a recopilar casi todos los datos comerciales de EE. UU. y a brindar a la SEC información sobre la actividad en todo el mercado.

Citadel, si bien parece ser una fuerza líder en la lucha contra la regulación de estos mercados financieros, no es la única que afirma creer que estos métodos de negociación en realidad tienen algún tipo de beneficio.

En un artículo de opinión, Max Dama, investigador cuantitativo de HeadlandsTech, comienza diciendo: “Existe un malentendido común, incluso entre los profesionales, de que el trading de baja latencia es un desperdicio de talento humano y recursos que podrían destinarse a avanzar en la física o curar el cáncer”.

Dama continúa afirmando que el HFT beneficia a los mercados al reducir los diferenciales entre oferta y demanda, reduciendo así el costo de las transacciones, y al acelerar el manejo de las negociaciones de oferta y demanda para descubrir precios “reales”.

Dama señala la desilusión dentro de la propia industria, afirmando que aquellos que se sienten así generalmente se dividen en dos grupos: “Las personas que trabajan en empresas más pequeñas y menos rentables que se preocupan de que su falta de tracción se deba a que la latencia es un “juego de todo o nada”; y en segundo lugar, las personas en grandes empresas que sienten que su trabajo de microoptimización mantiene una ventaja por uno o dos años más, pero que será reemplazado en breve y no tendrá ningún valor duradero para la humanidad.

“Ambos piensan: ¿no es un desperdicio invertir tanto en ASIC (continúa señalando que pocos optaron por el enfoque ASIC) en una carrera hacia el abismo para quitarle cinco nanosegundos y capturar un beneficio en el que el ganador se lleva todo en un juego de suma cero? ¿No es una mala asignación de recursos que tantas empresas construyan algo, que solo una gane y que el resto haya desperdiciado recursos y tiempo?”

Aunque Dama continúa refutando estas afirmaciones, bueno, ¿no son estas preguntas válidas?

“Es un grupo de personas realmente brillantes que podrían estar haciendo muchas cosas muy diferentes en este mundo”, dice Lauer. “Es una verdadera lástima”.

“Son genios, algunas de las personas más inteligentes del mundo. Y en lugar de resolver problemas reales, esto es lo que están haciendo.

“Están intentando ganar un par de nanosegundos para poder hacer que los ricos sean un poco más ricos. Es un uso realmente pobre de nuestra inteligencia colectiva”.