Aprendizaje IA de la Semana: 23 de febrero de 2026
Resumen semanal de 20 recursos, herramientas y artículos sobre inteligencia artificial que guardé esta semana.
Aprendizaje semanal de IA
Esta semana he marcado una variedad de enlaces que van desde notas personales sobre el uso de OpenClaw y Railway, hasta herramientas de desarrollo, agentes especializados, nuevos modelos y opciones de infraestructura. A continuación los agrupo por tema para facilitar la lectura.
📝
Notas personales
openclaw progress
Probando tanto OpenClaw como su variante Kiloclaw, intento entender cómo añadir skills (poderes) de forma segura y cómo crear o spawnear agentes dentro del ecosistema.
railway deployments and ssh connection
Desplegué OpenClaw mediante Docker en Railway y configuré el acceso SSH a través del CLI de Railway (instalado globalmente con npm i -g). No se trata de un SSH convencional, sino de la integración propia de la plataforma.
GitHub Copilot and Kiloclaw AI Service URL Endpoints
Descubrí los endpoints públicos que permiten usar los modelos de GitHub Copilot y de Kiloclaw fuera de sus entornos originales, lo que facilita su integración en flujos personalizados.
🛠️
Herramientas de desarrollo y productividad
Web | OpenCode
OpenCode puede ejecutarse como aplicación web mediante opencode web. El comando levanta un servidor local (puerto aleatorio o especificado) y abre la interfaz en el navegador. Permite configurar hostname, mDNS, CORS y protección mediante contraseña; desde la web se pueden gestionar sesiones y, opcionalmente, adjuntar una terminal TUI para trabajar simultáneamente con la interfaz gráfica.
Chris Tate en X: agent‑browser skill Slack
Mediante npx skills add vercel-labs/agent-browser --skill slack se añade una habilidad de Slack al framework agent‑browser, permitiendo que un agente controle directamente la mensajería de Slack sin salir del entorno de IA.
AsyncFuncAI/deepwiki-open: DeepWiki abierto
DeepWiki‑Open genera wikis interactivos a partir de repositorios de GitHub, GitLab o Bitbucket. Analiza la estructura del código, crea documentación, diagramas Mermaid y ofrece un chat RAG para preguntar sobre el proyecto. Soporta múltiples proveedores de modelos (Google Gemini, OpenAI, Ollama, etc.) y se despliega fácilmente con Docker‑Compose. El proyecto indica que el desarrollo principal se está trasladando a AsyncReview.
wysh3/exa-search
Plugin Exa AI para OpenClaw. Este plugin aporta tres herramientas de búsqueda neural a OpenClaw: web_search (noticias y hechos), code_search (fragmentos de GitHub/Stack Overflow) y company_research (información empresarial). No requiere clave API; se instala con openclaw plugins install exa-search, se habilita y se reinicia el gateway.
musistudio/claude-code-router
Claude Code Router actúa como intermediario que permite dirigir las solicitudes de Claude Code a otros modelos (OpenRouter, DeepSeek, Ollama, Gemini, Volcengine, SiliconFlow, etc.). Ofrece transformación de peticiones/respuestas, cambio dinámico de modelo mediante el comando /model, gestión CLI de proveedores, integración con GitHub Actions y un sistema de plugins para transformadores personalizados.
ErwanLorteau/BMAD_Openclaw: BMAD Method en OpenClaw
Este plugin incorpora el marco de trabajo BMad Method (desarrollo ágil impulsado por IA) dentro de OpenClaw. Un agente maestro (bmad‑master) puede spawnear agentes especializados (Analista, PM, Arquitecto, etc.) en dos modos: YOLO (ejecución autónoma) o Interactivo (el usuario revisa cada paso y aporta feedback). El plugin gestiona el estado del proyecto y el flujo de trabajo completo: análisis → planificación → solución → implementación.
tinyfish-io/tinyfish-cookbook: recetas TinyFish
El TinyFish Cookbook reúne ejemplos y proyectos construidos con el agente web TinyFish, que convierte cualquier sitio web en una API programable mediante lenguaje natural. Destaca por haber alcanzado el 90 % en el benchmark Mind2Web, superando a Gemini, OpenAI y Anthropic. Entre las recetas se encuentran hubs de anime/anime, comparadores de apuestas deportivas, buscadores de fragmentos de código, herramientas de inteligencia competitiva y plataformas de logística o préstamos.
🤖
Agentes y asistentes AI
AutoGLM
Nota breve que indica que se trata de un asistente de teléfono basado en la familia de modelos GLM, probablemente enfocado en interacciones de voz y tareas móviles.
Z.ai
Interfaz de chat de Zhipu AI que da acceso a sus modelos GLM (como GLM‑4) para conversaciones de propósito general.
Noah Zweben en X: Claude Code Remote Control
Anthropic lanzó una vista previa de Remote Control para Claude Code (usuarios Max). Con el comando /remote‑control se puede iniciar una sesión en la terminal y continuarla desde un dispositivo móvil, preservando el flujo de trabajo mientras se está fuera del escritorio.
🧠
Modelos y bases de datos de modelos
Models.dev – base de datos abierta de modelos AI
Models.dev recopila especificaciones, precios y características de una amplia variedad de modelos de lenguaje (por ejemplo, variantes de Claude, DeepSeek, Gemini, etc.). Cada entrada muestra el contexto máximo, costo por token y si dispone de capacidades de razonamiento (“thinking”). Es útil para comparar rápidamente opciones antes de decidir qué modelo usar.
Taalas Etches AI Models Onto Transistors To Rocket Boost Inference
La startup Taalas propone grabar directamente los pesos de un modelo de IA entrenado en los transistores de un chip (a nivel de waferscale y con bloques de SRAM). Al eliminar la capa de software y la pared entre cómputo y memoria, prometen acelerar drásticamente la inferencia frente a enfoques basados en GPUs o HBM.
GLM-4.7-abliterated – colección huihui‑ai en HuggingFace
Una colección en HuggingFace que aloja varias versiones “abliteradas” (modificadas) del modelo GLM‑4.7, probablemente adaptadas para casos de uso específicos como reducción de sesgo o ajuste de comportamiento.
☁️
Infraestructura y compute
Home – Massed Compute
Servicio de alquiler de GPUs NVIDIA bajo demanda, con facturación por hora, soporte técnico directo de expertos y una interfaz de escritorio virtual para lanzar entornos preconfigurados (por ejemplo, con LLMs instalados). Destaca por su flexibilidad, ausencia de compromisos a largo plazo y centros de datos de nivel Tier III.
modal.com – precios y oferta de compute sin servidor
Modal ofrece una plataforma serverless donde se paga únicamente por el cómputo consumido. La página de precios muestra planes iniciales con créditos gratuitos ($30/mes) y opciones de mayor escala (hasta 50 GPU de concurrencia en el plan Team). Enfatiza