.

Computación

Bitcoin está a punto de saturarse y no hay líderes que lo solucionen

1

El desarrollador más influyente propone un arreglo polémico que serviría para que la red pudiese manejar más transacciones

  • por Mike Orcutt | traducido por Lía Moya
  • 20 Mayo, 2015

En una prueba de la capacidad de Bitcoin para adaptarse a su propia popularidad, que es cada vez mayor, la comunidad Bitcoin se enfrenta a un dilema: cómo cambiar el software núcleo de Bitcoin para que el volumen cada vez mayor de transacciones no abrume a la red. Algunos temen que la red, tal y como está diseñada ahora mismo, podría acabar superada incluso el año que viene.

La respuesta ayudará a decidir qué forma adopta la red de Bicoin según va madurando. Pero la comunidad de usuarios de Bitcoin, que no está muy unida, no se pone de acuerdo en cómo proceder. Y la naturaleza de Bitcoin, es decir, la de una tecnología que no es ni propiedad ni está controlada por una única persona o entidad, podría hacer que el necesario proceso de toma de decisiones resulte un desafío. Como poco representa una nube de incertidumbre sobre el futuro de Bitcoin a largo plazo.

El problema técnico, sobre el que hay un acuerdo bastante generalizado de que se puede resolver, es que la red de Bitcoin ahora tiene una capacidad fija de transacciones. Antes de que el (o la) misterioso creador de Bticoin, Satoshi Nakamoto, desapareciera, limitó el tamaño de un "bloque" o grupo de transacciones a un megabyte. La tecnología que subyace en Bitcoin funciona porque una red de miles de ordenadores contribuyen a la potencia de computación necesaria para confirmar cada transacción y registrarla en un registro permanente y de acceso público que se conoce como cadena de bloques (ver ¿Qué es Bitcoin, y por qué es importante). Cada 10 minutos, un operador de uno de esos ordenadores consigue la oportunidad de añadir un nuevo bloque a la cadena y recibe bitcoins recién acuñados como recompensa. Ese proceso se denomina minado de bitcoins.

Bajo el límite de un megabyte por bloque, la red sólo puede procesar unas tres transacciones por segundo. Si Bitcoin se convierte en un sistema de pago de uso generalizado o incluso en una plataforma para todo tipo de negocios en línea además de los pagos (ver La utilidad de Bitcoin en el futuro es independiente de la moneda), tendrá que procesar mucho más. Visa, en comparación, afirma que su red puede procesar más de 24.000 transacciones por segundo.

Los desarrolladores encargados de mantener el software base de Bitcoin son conscientes de este problema desde hace tiempo. Gavin Andresen, que ha dirigido el trabajo sobre el código núcleo de Bitcoin desde que Nakamoto le entregara las riendas en 2010, afirmó a MIT Technology Review  el mes de agosto pasado que su solución preferida al problema es aumentar el tamaño máximo de los bloques (ver El hombre que da la cara y responde sobre Bitcoin).

A principios de este mes Andresen se mostró más concreto, proponiendo que el tamaño máximo de los bloques se aumentara a 20 megabytes a partir de marzo de 2016, definiéndolo como "la serie de cambios más sencilla posible que funcionará". En una entrada posterior en su blog, Andresen dijo que la necesidad de cambiar era "urgente", señalando que es probable que la red deje de ser fiable si llegara a su límite actual.

El antiguo ingeniero de software de Google Mike Hearn, que ha contribuido al desarrollo de Bitcoin, ha calculado que al ritmo actual de crecimiento de transacciones, el límite se alcanzará en algún momento de 2016. "Como las actualizaciones llevan su tiempo, tenemos que prepararnos para esto ahora", escribió Hearn en su propia entrada de blog sobre el tema.

El problema es que hace falta un consenso para lograr un cambio tan sustancial como el que sugiere Andresen, que alteraría sustancialmente los requisitos para el minado. Y no todos los miembros de la comunidad de usuarios de software de Bitcoin, en la que se incluyen mineros, desarrolladores, y un número cada vez mayor de start-ups, está de acuerdo con que la propuesta de Andresen sea el mejor camino a seguir.

Un argumento popular en contra del cambio es que favorecería a las operaciones de minado más grandes y ricas, capaces de permitirse el coste mayor de procesar y almacenar bloques más grandes. Eso podría dar lugar a una peligrosa "centralización" en la comunidad de mineros, explica el profesor de informática de la Universidad de Princeton (EEUU), Arvind Narayanan (ver La generación de Bitcoins está en manos de unas pocas empresas). Otro argumento, de naturaleza más ideológica, es que se suponía que Bitcoin no tenía que cambiar tan drásticamente respecto al diseño original de Nakamoto. Hay quien defiende incluso que el límite no debería aumentar si quiera, siempre que los desarrolladores hagan ajustes más pequeños para impedir que la red se hunda cuando llegue al límite, aunque eso podría encarecer la confirmación de transacciones sin retrasos.

Lo que está en juego es el ecosistema comercial en torno a Bitcoin. Si el límite permanece fijo, a los negocios que esperan almacenar muchas transacciones en la cadena de bloques se les podría acabar la suerte. Y este interés no hace más que crecer. Este mismo mes el índice Nasdaq afirmó que estaba probando la cadena de bloques de Bitcoins para transacciones en su subsidiaria de mercados privados. Si la prueba tiene éxito, afirma el índice, podría usar la tecnología para todas las transacciones de Nasdaq en el mercado público. 

¿Bitcoin podrá con eso? Otro de los cinco desarrolladores núcleo de Bitcoin, Pieter Wuille, afirma que ahora mismo hay demasiados imponderables sobre las consecuencias de aumentar el tamaño de los bloques a 20 megabytes. Además de aumentar significativamente el coste de validar las transacciones, lo que expulsaría a los jugadores pequeños, explica, puede haber "cosas que se rompan que ni siquiera conocíamos". Wuille está de acuerdo con aumentar el tamaño del bloque “en términos generales”, pero explica que en un principio un aumento más pequeño sería menos arriesgado.

Por el momento el debate seguirá desarrollándose en la lista de correos de desarrollo de Bitcoin, un foro en el que se incluyen los desarrolladores núcleo, así como todos los demás que contribuyen con código.

Sin embargo, en última instancia el proceso de toma de decisiones "se reduce en realidad a qué les parece a los desarrolladores núcleo", explica Narayanan. Dado que son los únicos con la posibilidad de cambiar el código. Para complicar aún más las cosas, está el hecho de que no está exactamente claro cómo solicitarían input de todos los accionistas, muchos de los cuales prefieren mantenerse en el anonimato. Los desarrolladores núcleo podrían acabar teniendo que encargarse ellos mismos del asunto.

Pero al menos a uno de ellos le parece mala idea. Eso sentaría "un precedente increíblemente peligroso", afirma Wuille.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ASML, la empresa que revolucionó la fabricación de chips y quiere seguir haciéndolo

    ‘MIT Technology Review’ se reunió con el CTO saliente, Martin van den Brink, para hablar del ascenso de la empresa a la hegemonía y de la vida y muerte de la Ley de Moore  

    Dos trabajadores de ASML pasan por delante de la máquina UVE de alta apertura numérica en Veldhoven
  2. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  3. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores