Aprendizaje IA de la Semana: 23 de febrero de 2026
Resumen semanal de 20 recursos, herramientas y artículos sobre inteligencia artificial que guardé esta semana.
Aprendizaje semanal de IA
Esta semana he marcado una variedad de enlaces que van desde notas personales sobre el uso de OpenClaw y Railway, hasta herramientas de desarrollo, agentes especializados, nuevos modelos y opciones de infraestructura. A continuación los agrupo por tema para facilitar la lectura.
📝 Notas personales
-
openclaw progress Probando tanto OpenClaw como su variante Kiloclaw, intento entender cómo añadir skills (poderes) de forma segura y cómo crear o spawnar agentes dentro del ecosistema.
-
railway deployments and ssh connection Desplegué OpenClaw mediante Docker en Railway y configuré el acceso SSH a través del CLI de Railway (instalado globalmente con
npm i -g). No se trata de un SSH convencional, sino de la integración propia de la plataforma. -
GitHub Copilot and Kiloclaw AI Service URL Endpoints Descubrí los endpoints públicos que permiten usar los modelos de GitHub Copilot y de Kiloclaw fuera de sus entornos originales, lo que facilita su integración en flujos personalizados.
🛠️ Herramientas de desarrollo y productividad
-
Web | OpenCode OpenCode puede ejecutarse como aplicación web mediante
opencode web. El comando levanta un servidor local (puerto aleatorio o especificado) y abre la interfaz en el navegador. Permite configurar hostname, mDNS, CORS y protección mediante contraseña; desde la web se pueden gestionar sesiones y, opcionalmente, adjuntar una terminal TUI para trabajar simultáneamente con la interfaz gráfica. -
Chris Tate en X: agent‑browser skill Slack Mediante
npx skills add vercel-labs/agent-browser --skill slackse añade una habilidad de Slack al framework agent‑browser, permitiendo que un agente controle directamente la mensajería de Slack sin salir del entorno de IA. -
AsyncFuncAI/deepwiki-open: DeepWiki abierto DeepWiki‑Open genera wikis interactivos a partir de repositorios de GitHub, GitLab o Bitbucket. Analiza la estructura del código, crea documentación, diagramas Mermaid y ofrece un chat RAG para preguntar sobre el proyecto. Soporta múltiples proveedores de modelos (Google Gemini, OpenAI, Ollama, etc.) y se despliega fácilmente con Docker‑Compose. El proyecto indica que el desarrollo principal se está trasladando a AsyncReview.
-
wysh3/exa-search Plugin Exa AI para OpenClaw. Este plugin aporta tres herramientas de búsqueda neural a OpenClaw:
web_search(noticias y hechos),code_search(fragmentos de GitHub/Stack Overflow) ycompany_research(información empresarial). No requiere clave API; se instala conopenclaw plugins install exa-search, se habilita y se reinicia el gateway. -
musistudio/claude-code-router Claude Code Router actúa como intermediario que permite dirigir las solicitudes de Claude Code a otros modelos (OpenRouter, DeepSeek, Ollama, Gemini, Volcengine, SiliconFlow, etc.). Ofrece transformación de peticiones/respuestas, cambio dinámico de modelo mediante el comando
/model, gestión CLI de proveedores, integración con GitHub Actions y un sistema de plugins para transformadores personalizados. -
ErwanLorteau/BMAD_Openclaw: BMAD Method en OpenClaw Este plugin incorpora el marco de trabajo BMad Method (desarrollo ágil impulsado por IA) dentro de OpenClaw. Un agente maestro (bmad‑master) puede spawnear agentes especializados (Analista, PM, Arquitecto, etc.) en dos modos: YOLO (ejecución autónoma) o Interactivo (el usuario revisa cada paso y aporta feedback). El plugin gestiona el estado del proyecto y el flujo de trabajo completo: análisis → planificación → solución → implementación.
-
tinyfish-io/tinyfish-cookbook: recetas TinyFish El TinyFish Cookbook reúne ejemplos y proyectos construidos con el agente web TinyFish, que convierte cualquier sitio web en una API programable mediante lenguaje natural. Destaca por haber alcanzado el 90 % en el benchmark Mind2Web, superando a Gemini, OpenAI y Anthropic. Entre las recetas se encuentran hubs de anime/anime, comparadores de apuestas deportivas, buscadores de fragmentos de código, herramientas de inteligencia competitiva y plataformas de logística o préstamos.
🤖 Agentes y asistentes AI
-
AutoGLM Nota breve que indica que se trata de un asistente de teléfono basado en la familia de modelos GLM, probablemente enfocado en interacciones de voz y tareas móviles.
-
Z.ai Interfaz de chat de Zhipu AI que da acceso a sus modelos GLM (como GLM‑4) para conversaciones de propósito general.
-
Noah Zweben en X: Claude Code Remote Control Anthropic lanzó una vista previa de Remote Control para Claude Code (usuarios Max). Con el comando
/remote‑controlse puede iniciar una sesión en la terminal y continuarla desde un dispositivo móvil, preservando el flujo de trabajo mientras se está fuera del escritorio.
🧠 Modelos y bases de datos de modelos
-
Models.dev – base de datos abierta de modelos AI Models.dev recopila especificaciones, precios y características de una amplia variedad de modelos de lenguaje (por ejemplo, variantes de Claude, DeepSeek, Gemini, etc.). Cada entrada muestra el contexto máximo, costo por token y si dispone de capacidades de razonamiento (“thinking”). Es útil para comparar rápidamente opciones antes de decidir qué modelo usar.
-
Taalas Etches AI Models Onto Transistors To Rocket Boost Inference La startup Taalas propone grabar directamente los pesos de un modelo de IA entrenado en los transistores de un chip (a nivel de waferscale y con bloques de SRAM). Al eliminar la capa de software y la pared entre cómputo y memoria, prometen acelerar drásticamente la inferencia frente a enfoques basados en GPUs o HBM.
-
GLM-4.7-abliterated – colección huihui‑ai en HuggingFace Una colección en HuggingFace que aloja varias versiones “abliteradas” (modificadas) del modelo GLM‑4.7, probablemente adaptadas para casos de uso específicos como reducción de sesgo o ajuste de comportamiento.
☁️ Infraestructura y compute
-
Home – Massed Compute Servicio de alquiler de GPUs NVIDIA bajo demanda, con facturación por hora, soporte técnico directo de expertos y una interfaz de escritorio virtual para lanzar entornos preconfigurados (por ejemplo, con LLMs instalados). Destaca por su flexibilidad, ausencia de compromisos a largo plazo y centros de datos de nivel Tier III.
-
modal.com – precios y oferta de compute sin servidor Modal ofrece una plataforma serverless donde se paga únicamente por el cómputo consumido. La página de precios muestra planes iniciales con créditos gratuitos ($30/mes) y opciones de mayor escala (hasta 50 GPU de concurrencia en el plan Team). Enfatiza