Antes siempre pensaba que una vez que el agente de IA estuviera en la cadena, podría ser "totalmente automático", pero ahora veo que lo que realmente ahorra preocupaciones son solo consultar datos, calcular rutas y dividir transacciones. Cuando llega el momento de firmar, todavía necesita una supervisión humana: puede confundir tokens con el mismo nombre, contratos de phishing, permisos extraños como "pasos ejecutables", y si le pides que confirme por sí mismo, en realidad estás echando la responsabilidad al modelo, pero en la cadena no se hace responsable.



Otra parte es la gestión de riesgos, el agente es muy bueno siguiendo la curva de beneficios óptimos, pero cuando aparece un cisne negro (oracle fallando, liquidez repentinamente escasa, MEV siendo manipulado de forma absurda) no siempre sabe "cuándo detenerse". Mi enfoque actual es: que dé sugerencias, yo solo le doy un límite muy pequeño + permisos temporales, verifico manualmente las listas blancas de contratos clave y reviso todo personalmente; antes pensaba que era complicado, pero ahora prefiero ir más despacio.

Últimamente la gente habla mucho de modularidad, y en la capa de DA se discute con entusiasmo, entiendo que los desarrolladores estén emocionados, pero que los usuarios estén confundidos también es normal... Sería genial si el agente pudiera ocultar esa complejidad, pero "ocultar la complejidad" no equivale a "eliminar riesgos", al final siempre hay alguien que debe vigilar esa puerta. Por ahora, así está bien, más seguro.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado