Belldandy
Un blog? Que es esto, 2004? Mi nombre es Andrea, y hace muchos años que trabajo en sistemas.
AWS Certified: Solution Architect - Associate
AWS Certified: Developer - Associate
Archivo
Logo

Peorth - Blog de tecnología

Localstack va a requerir una cuenta a partir de Marzo 2026

Publicado el 10 feb 2026, 09:10:30 —  Categorias: Opiniones, Arquitectura, AWS

Hoy, en otro capitulo de "Una empresa open source tratando de arañar guita de los lugares equivocados", tenemos a LocalStack.

LocalStack es un proyecto que permite "emular" ciertos servicios de AWS localmente en tu maquina, para que puedas desarrollar sin pegarle a un entorno "real" de AWS, o para tus integration tests, porque viene como un Docker container que podes levantar en tu CI

Viene en dos versiones, una version paga (Enterprise) que tiene servicios mas especificos (como Cognito por ej) y es para empresas, y la version Community, que es open source y tiene los servicios mas "usados", como S3, SQS, y hasta Lambda. , En esta pagina pueden ver la lista de servicios incluidos en la version Free versus la version Enterprise.

En Diciembre del 2025 hicieron un blog post anunciando que a partir de marzo del 2026, van a unificar las dos imagenes (la community y la PRO) y la community va a pasar a requerir usuario y password para poder usarla. Ellos dicen que mantener dos versiones es muy costoso y de esta forma, disminuyen sus costos operativos. Pero si leemos entre lineas, es simplemente el paso anterior a que cobren por todo y "maten" la version Open Source.

Beginning in March 2026, LocalStack for AWS will be delivered as a single, unified version. Users will need to create an account to run LocalStack for AWS, which allows us to provide a secure, up-to-date, and feature-rich experience for everyone—from those on our free and student plans to those at enterprise accounts.

Image

Obvio se cae de maduro que lo hacen para "monetizar" el servicio, y que eventualmente, termines pagando por algo que era open source.

Yo entiendo que las empresas necesiten tener un ingreso (nadie come aire), pero estas estrategias nunca funcionan: los que pagan ya estan pagando (por licencias, por ser empresa, por necesitar ciertas cosas) y lo unico que hace esto es lastimar al boludo que se lo instala para poder desarrollar sin tener que generar costos en una cuenta de AWS (que es exactamente mi caso, yo lo uso para desarrollar, mi blog solo tiene DynamoDb, SQS, S3 y Lambda). Que ganas con perseguir al perejil que levanta un container de localstack en sus integration tests para probar el codigo? Ese no tiene un mango para pagarte, y haciendo esto, solo generas ruido y desconfianza.

Haran un fork de la version community que alguien mantenga? O tendremos que caer en este modelo de 💩, donde eventualmente terminaremos perdiendo las pocas cosas que quedan bajo el espiritu del Open Source?

Que opinan Uds.?

Articulo original: The Road Ahead for LocalStack: Upcoming Changes to the Delivery of Our AWS Cloud Emulators

Estan surgiendo dos tipos de usuarios de AI

Publicado el 9 feb 2026, 09:57:11 —  Categorias: AI, Opiniones

La diferencia entre usuarios de IA es enorme, y explica mucho porque los medios en general estan bastantes confundidos respecto al impacto de la IA en la productividad.

Al dia de hoy, hay dos tipos claros de usuarios:

  • Los "usuarios avanzados" están usando Claude Code, MCPs y herramientas nuevas, pero cutting-edge (te estoy mirando a vos, Openclaw 🦞). Sorprendentemente, muchos no son técnicos - especialmente en finanzas, donde descubren pueden hacer con Python cosas mucho mas alla de lo que les permite hacer Excel.
  • Los usuarios básicos solo chatean con ChatGPT o similar. Hay muchisima gente en este punto todavia

El problema de M365 Copilot en las empresas

Microsoft Copilot domina el mercado empresarial, pero es MALISIMO - una copia mala de ChatGPT. La ironia es increible, porque Microsoft está implementando y usando Claude Code internamente a pesar de ser dueño de OpenAI. En muchas empresas, Copilot es la única herramienta de IA permitida. Es lento, falla con archivos grandes (o muchos archivos), y los ejecutivos que lo usan terminan descartando la IA por completo o gastando fortunas en consultoras sin resultados.

A esto le sumamos que las políticas corporativas de IT son bastante pobres:

  • Entornos bloqueados donde ni se pueden ejecutar scripts básicos
  • Software antiguo sin APIs internas
  • Departamentos de ingeniería aislados o subcontratados

Obviamente las preocupaciones de seguridad son reales, pero el resultado es que no tienen infraestructura para usar agentes de forma segura, quedandose "atras" en todo esto.

Donde se ve la brecha

En las empresas grandes: los directores financieros tratan de usar Copilot de Excel, hace un desastre, nunca lo vuelven a tocar.

En las empresas chicas: Un ejecutivo no técnico convierte un modelo financiero de 30 hojas de Excel a Python en un par de prompts con Claude Code. Ahora puede hacer simulaciones Monte Carlo, crear dashboards web y analizar debilidades - sin morir en Excel durante días.

Los empleados de empresas pequeñas pueden ser mucho más productivos que los de grandes corporaciones. El péndulo se está invirtiendo.

El futuro

Las ganancias de productividad se hacen de abajo hacia arriba: equipos pequeños que conocen sus procesos construyendo flujos de trabajo con IA, no estrategias corporativas de arriba hacia abajo

Las empresas con APIs internas están en ventaja. Un sandbox de código + lenguaje de programación + acceso a APIs = resultados increíbles para usuarios no técnicos. Esto puede reemplazar casi todas las apps de productividad tradicionales. Obviamente ahi tambien empiezan los leaks de seguridad, tampoco vamos a ignorar este punto. La division se está acelerando. Nunca antes un equipo chico pudo competir tan fácilmente con una empresa mil veces más grande.

Que opinan? En su empresa les dejan correr MCP o OpenClaw? Como manejan los datos sensibles?

Articulo original: Two kind of AI users are emerging

El autor del articulo comenta que extraña las epocas donde uno podia sentarse a analizar y PENSAR para tratar de resolver un problema determinado, sin la ayuda de una AI que escupa la solucion sin dejarnos ninguna enseñanza.