Cómo Windsurf Rompe el Techo para la Recuperación

This ad is not shown to multipass and full ticket holders
React Advanced
React Advanced 2025
November 27 - 1, 2025
London, UK & Online
We will be diving deep
Learn More
In partnership with Focus Reactive
Upcoming event
React Advanced 2025
React Advanced 2025
November 27 - 1, 2025. London, UK & Online
Learn more
Bookmark
Rate this content
Kevin Hou
Kevin Hou
22 min
27 Mar, 2025

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Hola, Conferencia de Productividad. Somos Windsurf, un nuevo editor de código nativo de IA. Hoy, voy a mostrarte cómo funciona el producto, los principios rectores detrás de su desarrollo y algunos consejos y trucos sobre el uso de la IA en los flujos de trabajo de desarrollo. Nuestro agente es una herramienta poderosa que abstrae el trabajo tedioso, permitiendo a los desarrolladores centrarse en construir y enviar grandes productos. Realiza investigaciones de fondo, predice los próximos pasos y automatiza la toma de decisiones. Windsurf se integra profundamente en la aplicación, entendiendo lo que estás haciendo y proporcionando herramientas para lograr tus objetivos. El agente puede recordar instrucciones y comportarse como una extensión de ti mismo. Construyendo para el futuro de la inteligencia, Windsurf tiene como objetivo mejorar la productividad y revolucionar la codificación con agentes de IA.

1. Introducción a Windsurf

Short description:

Hola, Conferencia de Productividad. Somos Windsurf, un nuevo editor de código nativo de IA. Hoy, voy a mostrarte cómo funciona el producto, los principios rectores detrás de su desarrollo y algunos consejos y trucos sobre cómo usar IA en los flujos de trabajo de desarrollo. Los agentes son el futuro del desarrollo de software. Creamos Codium, una extensión de autocompletado, y rápidamente obtuvimos más de un millón de descargas. Creemos que 2025 es el año de los agentes, y lanzamos Windsurf, un sistema LLM agente, para generar y refactorizar código para ti. Aquí hay una captura de pantalla de Windsurf, mostrando sus capacidades.

Hola, Conferencia de Productividad. Somos Windsurf. Somos un nuevo editor de código nativo de IA, lanzado hace unos meses. Hoy, voy a mostrarte cómo funciona el producto, algunos de los principios rectores detrás de cómo construimos el producto, y lo más importante, por qué todos ustedes están aquí, algunos consejos y trucos sobre cómo pueden usar IA en sus flujos de trabajo de desarrollo para volverse más productivos.

Así que vamos a sumergirnos en ello. Durante los próximos 15 minutos, voy a hablar un poco sobre cómo construimos el mejor agente de codificación en el mercado. Mi nombre es Kevin Howell. Dirijo nuestro equipo de ingeniería de productos aquí en Windsurf, y estamos aquí en la hermosa Área de la Bahía entregándoles esta presentación de forma remota. Solo quiero agradecer al equipo de la Conferencia de Productividad por invitarnos a esta conferencia. Estamos muy emocionados de ser parte de este viaje, y voy a dedicar un tiempo a hablar sobre algunos de los principios que nuestro equipo vive y respira para construir un producto como el editor de Windsurf.

Creemos que los agentes son el futuro del desarrollo de software. Estamos muy optimistas sobre el estado de la IA, y como todos ustedes probablemente pueden ver y relacionarse, cada día las noticias están inundadas con nuevos modelos, nuevas prácticas, nuevas herramientas para acelerar todo tipo de profesiones, pero notablemente los desarrolladores de software. Y así, para comenzar, los llevaré a un viaje por el camino de la memoria en 2022. Puede parecer un tiempo antiguo. Este fue el momento en que Copilot fue lanzado. Este era el estado del arte de lo que la tecnología y la IA podían hacer por los programadores. Comenzamos a ver texto fantasma.

Comenzamos a ver, ya saben, Copilot completando sus funciones y limpiando sus utilidades, y fue una de las primeras veces que los desarrolladores pudieron experimentar la magia de la IA mientras codificaban. Nosotros, como muchos otros, estábamos realmente emocionados por esta tecnología, y decidimos construir nuestro primer producto llamado Codium, y esta fue una extensión de autocompletado que vivía en VS Code, JetBrains, Vim y 30 otros IDEs, y fuimos uno de los primeros en el mercado en traer autocompletado. La experiencia de autocompletado a las masas, y rápidamente obtuvimos más de un millón de descargas, y fue un momento muy exitoso para la empresa, pero siempre supimos que íbamos a construir más y más. Y así, sabíamos que la inteligencia, predecimos que la inteligencia iba a volverse más rápida, iba a volverse más barata, los modelos iban a crecer, los paradigmas iban a cambiar, y como hemos visto en las noticias, ya saben, cosas como DeepSeek, modelos RL como O1, todas estas cosas han estado contribuyendo al rápido, rápido ritmo del desarrollo de software en los últimos meses. Siempre queremos dar a nuestros usuarios la mejor experiencia posible, y lo que esto significaba en ese momento era que íbamos a construir el mejor, el producto de autocompletado más rápido, pero con el tiempo supimos que podríamos hacer más y más trabajo para el usuario, y teníamos nuestra mirada en los agentes. Sabíamos que, o predecimos que copiar y pegar desde ChatGPT desaparecería. También hipotetizamos que estos agentes, ¿verdad? , estas máquinas de desarrollo de software autónomas podrían hacer más y más por nuestros desarrolladores y por nuestros usuarios. Así que creemos que 2025 es este año, y lanzamos Windsurf a finales de 2024, capitalizando esta nueva tecnología, que es un sistema LLM agente. Windsurf ha estado empujando el límite de lo que es posible con LLMs, específicamente para crear un agente que pueda trabajar en tu nombre y generar código para ti, puede refactorizar código para ti, y vamos a entrar en lo que exactamente eso significa. Aquí hay una captura de pantalla de Windsurf. Puedes ver aquí que hay un agente en el lado derecho, llamamos a esto Cascade, y está construyendo un raspador web en Python, y puedes ver que con solo un par de indicaciones podemos generar un archivo completo.

2. El Poder del Agente

Short description:

Nuestro agente puede controlar el editor, buscar documentación, buscar en la web, obtener código, ejecutar comandos de terminal y más. Es una herramienta poderosa que abstrae el trabajo tedioso, permitiendo a los desarrolladores concentrarse en construir y enviar grandes productos. Nuestro objetivo es minimizar la interacción del usuario con el agente mientras se proporciona una sensación de control. El agente realiza investigaciones de fondo, predice los próximos pasos y automatiza la toma de decisiones. Windsurf ya ha escrito miles de millones de líneas de código y está mejorando constantemente. Hemos recibido miles de mensajes y el agente es utilizado activamente por muchos desarrolladores.

Nos da algunas estadísticas sobre el sitio web en cuestión. Pero puedes ver que hay una serie de cosas aquí que nuestro agente está haciendo en nombre de un usuario como tú. Es capaz de controlar el editor de maneras que tú lo controlarías para hacerte lo más eficiente y productivo posible. Otras formas en que puedes usar esta herramienta, puede buscar documentación, tiene la capacidad de buscar en la web por ti automáticamente. Así que si agregas una consulta que utiliza datos en vivo o quieres buscar una versión específica de la documentación, puede ir a internet y buscar esos datos en vivo, usarlos como contexto. Puede hacer cosas como navegar por la base de código, puede ejecutar cosas en tu terminal, puede abrir archivos y usar tu historial de edición como contexto. La lista continúa y continúa. En general, es una herramienta increíblemente poderosa y flexible que hace que los desarrolladores sean mucho más productivos. Y esto puede parecer un montón de características aleatorias, pero te guiaré a través de cómo pensamos generalmente sobre lo que vamos a construir. WinSurf es una herramienta increíblemente poderosa, pero podríamos estar construyendo muchas cosas diferentes. Podemos ir en muchas direcciones diferentes. Así que queremos asegurarnos de que como equipo, siempre volvamos a nuestra misión, que es mantenerte en el flujo para que puedas desbloquear tu potencial ilimitado. Lo que esto significa es que queremos que la IA maneje el trabajo tedioso por ti. Cosas como depurar tus trazas de pila, buscar tu código fuente original, obtener las versiones correctas de la documentación para ti, todas estas cosas deberían estar abstraídas de ti. El LLM y el agente deberían hacerte más productivo y hacerte concentrarte en las cosas en las que eres excepcionalmente bueno, construir y enviar grandes productos.

Así que con nuestro objetivo en mente, ¿cómo sabemos que lo que estamos construyendo realmente está funcionando? Para nosotros, es un juego de entrada y salida. ¿Cuánta entrada explícita, cuánto puede el usuario, tú o yo, escribir en el aviso para obtener la mayor cantidad de código listo para producción correcto como salida? Hacemos esto reduciendo la cantidad de humanos en el proceso. Así que queremos que interactúes con el agente lo menos posible, pero lo suficiente para que sientas que tienes el control y puedes corregirlo si es necesario. Esto significa que el agente hace muchas cosas como investigaciones de fondo. Puede predecir tus próximos pasos, tus próximos pasos. Y luego también puede automatizar parte de la toma de decisiones. Si estás ejecutando un comando de terminal en el que tenemos alta confianza, deberíamos ejecutarlo automáticamente para que no tengas que hacerlo. Y esto puede parecer un futuro lejano, pero esto está sucediendo hoy. Windsurf fue lanzado hace un par de meses. Y ya estamos viendo que hemos escrito 4.5 mil millones de líneas de código con Cascade, que es el agente dentro de Windsurf. Esa es una cantidad asombrosa de código que hemos escrito para nuestros usuarios. E incluso desde que comencé esta presentación, hemos tenido miles de mensajes enviados. 600, para ser precisos, 670 mensajes de Cascade enviados cada minuto. Y una estadística divertida que me gusta compartir porque todos somos ingenieros aquí, nos han despertado 16 veces debido al deber de pager diciéndonos que hemos alcanzado nuestra capacidad. Esto son problemas hacia el éxito.

3. Principios y Trayectorias

Short description:

Hemos sido uno de los mayores consumidores de LLMs y hemos ganado control sobre la capacidad del servicio. Integramos nuestro agente profundamente en la aplicación, entendiendo lo que estás haciendo y dándote herramientas para alcanzar tus objetivos. El agente puede ejecutar tus comandos de terminal y proporcionar una experiencia de usuario elegante para aceptar o rechazar cambios. Las trayectorias son un principio clave, donde el agente trabaja constantemente en segundo plano para entender y contribuir a tus acciones. Esta línea de tiempo compartida permite una colaboración fluida entre tú y el agente. Un ejemplo de trayectorias en acción se muestra con la adición de un nuevo manejador de formularios de React.

Hemos sido uno de los mayores consumidores de LLMs, y así, con eso viene, desafortunadamente, a veces cuando no hay suficiente capacidad para ejecutar el servicio. Hemos controlado esto cada vez más a medida que ha pasado el tiempo, pero gracias a todos nuestros usuarios que nos ayudaron a ser un tipo de éxito de la noche a la mañana en el espacio de IDE.

Así que ahora voy a hablar sobre la parte principal de la presentación, que son los principios. ¿Cómo abordamos realmente la construcción de un agente como este? Así que con esta misión y métrica en mente, hablemos un poco sobre algunos de los principios que utiliza el equipo. El primer principio se llama trayectorias. Así que esto en resumen significa que intentamos leer tu mente. Windsor intenta leer tu mente. A diferencia de los otros editores en el mercado, hay un puñado de otros editores de IA en el mercado como Cursor o VSCode con Copilot. Integramos nuestro agente increíblemente profundamente en la aplicación. Así que lo que esto significa es que en una mitad, estamos entendiendo lo que estás haciendo. Y en la otra mitad, te estamos dando herramientas y dando al agente la capacidad de hacer realmente las cosas que tú harías.

Así que esto significa entender qué archivos has visto más recientemente y cuáles son tus ediciones más recientes, hasta editar realmente los archivos y buscar cosas dentro de la barra de búsqueda. Esto ha llevado a características realmente, realmente poderosas por ejemplo, la capacidad de simplemente escribir continuar mi trabajo y el agente podrá usar el contexto de lo que ha aprendido sobre ti en tus acciones más recientes para realmente salir y terminar lo que estabas haciendo y terminar lo que comenzaste. Esto también significa que podemos hacer cosas como ejecutar tu terminal automáticamente. Por ejemplo, si necesita una dependencia, puede simplemente ejecutar npm install por ti. Y a veces ni siquiera necesitas permitirle que haga esto explícitamente. Inferirá que este es un comando seguro para que lo ejecutes automáticamente. Y luego también ofrecemos una experiencia de usuario muy elegante para que aceptes y rechaces cambios para que puedas estar al tanto, pero poder revisar lo que el agente está haciendo increíblemente rápido. Así es como funciona más o menos una trayectoria. El agente está constantemente trabajando en segundo plano para entender lo que estás haciendo y luego también contribuir a eso.

Así que en esta animación, estás viendo que, si el usuario navega primero, la IA usará eso para comenzar a investigar. Podrían hacer ediciones en tu nombre. Estamos almacenando cosas en una especie de línea de tiempo centralizada. Y llamamos a esto la trayectoria. Así que a medida que haces cambios, a medida que haces ediciones, el agente también vivirá en esa misma línea de tiempo y tiene completa conciencia y contexto sobre lo que has hecho más recientemente. Puedes imaginar que esta línea de tiempo compartida es cómo podemos fluir de un lado a otro entre cosas que tú contribuyes y cosas que el agente contribuye para que el contexto sea cohesivo y unificado en esos dos frentes. Aquí hay un ejemplo de trayectorias en acción. Así que la experiencia agente en Windsurf se muestra a la derecha. En el lado izquierdo, el usuario en realidad acaba de agregar una nueva función. Y en este caso, estamos agregando un nuevo manejador de formularios de React.

4. Trayectorias y Meta-Aprendizaje

Short description:

El agente puede captar cambios recientes y refactorizar archivos según la entrada del usuario. Los comandos de terminal pueden ser reconocidos y utilizados por el agente para implementar dependencias. El futuro de las trayectorias implica una integración fluida entre la terminal y el chat. Windsurf tiene como objetivo mantener al agente en armonía con tu entorno de trabajo. El principio de meta-aprendizaje permite a Windsurf adaptarse y recordar cosas sobre tu base de código y preferencias.

Y puedes ver que esto se agregó a la trayectoria. El agente pudo captar los cambios más recientes. Y simplemente diciendo, continúa mi trabajo, ahora podemos refactorizar el resto de ese archivo y archivos vecinos para luego usar el código que el usuario acaba de escribir. Y de esta manera, estamos entregando de ida y vuelta esta noción de una línea de tiempo unificada y una trayectoria. Estamos entregando de ida y vuelta entre lo que el agente puede hacer por ti y lo que hace el usuario.

Otro ejemplo de esto está en la terminal. Si ejecutaras una serie de comandos en la terminal, por ejemplo, si instalaste una dependencia con pip o si instalaste una dependencia con npm, podríamos captar eso. Y el agente podría decir, OK, probablemente quieras implementar esa dependencia dentro de tu proyecto. Y puedes ver aquí, después de ejecutar un conjunto de comandos de terminal, tenemos contexto sobre eso. Y podemos usar eso cuando el agente se va y hace su trabajo. Creemos que hay un futuro donde tu terminal, tu contexto, tus ediciones son parte de esta trayectoria unificada, donde no necesitas copiar y pegar entre la terminal y el chat. Nunca necesitas poder copiar y pegar entre el archivo y el chat. Y creemos que el futuro va a ser automático así. Y ciertamente no creemos que el futuro sea cosas como en la terminal.

Aquí hay otro ejemplo de una trayectoria donde estamos tratando de abstraer decisiones para ti. Y así, en este caso, estamos ejecutando comandos de Python para ti en tu nombre dentro de tu terminal. Así que lo que hacemos es ejecutar el comando dentro de tu terminal nativa para que podamos disminuir la distancia entre lo que estás trabajando, el entorno en el que trabajas, y el entorno en el que trabaja el agente. Y de esta manera, podemos aprovechar tu entorno virtual, aprovechar tu dependencia cachés, y cosas de esa naturaleza. El objetivo de todo esto es mantener al agente lo más cerca posible en armonía con la forma en que tú haces tu trabajo. También creemos que los desarrolladores están aquí para quedarse. Windsurf podrá pensar más y más en el futuro. Creemos que el futuro de las trayectorias es que Windsurf leerá tu mente no solo un o dos pasos en el futuro, sino 10 a 20 pasos. Estará haciendo cosas como escribir pruebas unitarias antes de que hayas terminado la función original o realizando refactorizaciones amplias basadas en el código después de haber realizado solo un par de líneas de cambios dentro del editor. Así que las trayectorias son un concepto muy, muy poderoso. Y esto es lo que permite a los usuarios sentir que están en armonía fluida con Windsurf.

El segundo principio es meta-aprendizaje. Así que incluso si Windsurf entiende lo que estás haciendo en el momento, hay una especie de comprensión inferida de tu base de código, de tus preferencias, y algunas de tus pautas organizativas que, digamos, un ingeniero senior en tu equipo podría captar con el tiempo. Llamamos a este concepto meta-aprendizajes. Windsurf puede adaptarse y recordar cosas sobre ti solo con el uso. Así que si piensas en un Frontier LLM, la analogía que nos gusta usar en la empresa es que los Frontier LLMs son los ingenieros más inteligentes que conoces, pero no tienen exposición a cómo tú o tu empresa escriben código.

5. Construyendo Características y Memorias Autogeneradas

Short description:

El agente puede recordar detalles específicos sobre cómo trabajas, como dependencias preferidas y comandos de terminal. Las memorias autogeneradas y las herramientas personalizadas a través del protocolo MCP mejoran las capacidades del agente. El objetivo es que el agente recuerde instrucciones sin problemas y se comporte como una extensión de ti mismo. El futuro del meta-aprendizaje implica inferir tendencias del código y del uso, creando experiencias personalizadas para cada usuario.

Son capaces de escribir una inmensa cantidad de código muy, muy rápido. Pero, ¿cómo logras que eso se integre bien en tu base de código? Esto significa que necesitamos construir características e infraestructura para permitir que el agente recuerde cómo trabajas específicamente.

Creamos cosas como memorias autogeneradas. Por ejemplo, si le dices al agente, recuerda que uso Tailwind versión 4, podrá recordar eso en el futuro. Implementamos herramientas personalizadas a través del protocolo MCP. Para aquellos de ustedes que no lo saben, esta es una forma de vincular tu cuenta de Figma al agente. Y de repente, ahora el agente puede leer tus archivos de Figma y luego hacer cambios en tu nombre. También hacemos cosas como permitirte poner en lista blanca o negra ciertos comandos de terminal.

Así que si siempre quieres que el agente esté capaz de instalar dependencias en tu nombre, puedes ponerlas en lista blanca. O también puedes agregar cosas como nunca RMRF mi base de código. Así que si piensas en lo que hace que un desarrollador sea muy efectivo, son capaces de recordar estas lecciones y guías después de que solo se las has dicho una vez. Así que Windsurf también necesita modelar este comportamiento, si alguna vez esperamos que los agentes de IA y las herramientas en general escriban y mantengan proyectos completos para nosotros.

Así que a corto plazo, esto significa que no deberías necesitar solicitar a un agente múltiples veces que recuerde lo mismo. Deberías poder decírselo una vez y que lo recuerde. El agente debería sentirse como una extensión fluida de ti mismo. Y tenemos un dicho en la empresa, las ideas son baratas.

Y aquí hay un ejemplo de memorias autogeneradas de las que he estado hablando, en acción. Aquí puedes ver que estamos investigando esta base de código. Parece que tiene un montón de endpoints. Windsurf está saliendo y analizando dichos endpoints y está creando casi como una memoria de la arquitectura técnica. Para que la próxima vez que hagas una pregunta sobre la base de código, no tenga que volver a investigar esto. Puede recordar y tal vez responder tu pregunta de una sola vez. Así que este es solo un ejemplo de memorias en acción.

Otro caso de uso común es que la gente le diga, oye, recuerda que me gusta usar esta versión de React, React 19, la versión que acaba de ser lanzada. Y el agente sabrá priorizar tanto esa documentación como escribir código que refleje ese marco de versión. Entonces, ¿cuál es el futuro del meta-aprendizaje? Creemos que el futuro es donde todas tus tendencias son inferidas de la base de código y de tu uso. Así que las memorias autogeneradas son un paso en esa dirección. Pero, en última instancia, tener cosas definidas explícitamente en, digamos, un archivo de reglas es una muleta.

6. Construyendo Agentes Escalables e Inteligentes

Short description:

Los agentes continuarán construyendo una comprensión y bancos de memoria para proporcionar experiencias personalizadas. El tercer principio es escalar con inteligencia, asegurando que las herramientas mantengan el ritmo con la tendencia de la inteligencia. Construir un producto resiliente que pueda heredar aprendizajes de LLMs es crucial. En 2021, Chat GPT estaba limitado por su inteligencia.

Creo que a largo plazo, creemos que los agentes continuarán construyendo esta noción de comprensión, esta noción de bancos de memoria, y podrán utilizarlos de manera efectiva para que cada instancia de Windsurf, cada instancia descargada de Windsurf se sienta muy personalizada para el usuario que los está utilizando. Y vamos a seguir invirtiendo hacia ese futuro.

Y finalmente, el tercer principio que usamos para construir una herramienta, para construir la herramienta Windsurf, es la idea de escalar con inteligencia. Así que Windsurf, ahora que hemos cubierto, entiende lo que estás haciendo en el momento, trayectorias, y es capaz de mejorar con el tiempo, el meta-aprendizaje. Pero, ¿cómo construimos un agente que pueda escalar con el ritmo de los LLMs? Estás en esta conferencia porque tú quieres saber cómo mejorar o cómo mejorar tus flujos de trabajo y ser más productivo usando AI. Y queremos asegurarnos de que las herramientas que estamos construyendo estén escalando con esa tendencia de inteligencia.

Así que podríamos haberte dado una gran herramienta hoy, pero, ¿cómo sabemos que si los LLMs mejoran en un 50%, en un 100%, en 3x, que el producto realmente va a ser resiliente a eso? Y en un año, podremos heredar los aprendizajes de esos LLMs. Así que para llevarte de vuelta, vamos a retroceder a 2021, cuando Chat GPT salió por primera vez nuevamente. Nuestra imaginación realmente estaba desbordando. Estabas pensando en todos los diferentes flujos de trabajo que podrías mejorar o acelerar. Pero en ese momento, los modelos eran, francamente, un poco demasiado tontos para poder lograr muchas de estas cosas.

7. Construyendo para el Futuro de la Inteligencia

Short description:

Construyendo infraestructura para compensar debilidades. Eliminamos el chat y lo reemplazamos con un agente. El agente utiliza herramientas para encontrar información y tomar acción. Construyendo para el futuro de la inteligencia. Diseñado para heredar ganancias de modelos en mejora.

¿Y qué hicimos? Terminamos construyendo mucha infraestructura para poder compensar algunas de esas debilidades. Un ejemplo de una debilidad es la recuperación. Decidimos construir cosas como índices de incrustación, repositorios de búsqueda, heurísticas de recuperación, y sistemas de validación de salida, todo en un esfuerzo por ayudar al modelo a poder recuperar el mejor contexto para tu consulta. Esto fue realmente útil para exprimir el rendimiento de estos modelos, ese último pequeño detalle. Pero, en última instancia, todo este desarrollo fue para una noción fija de inteligencia.

Ahora hemos visto muy claramente que los modelos han estado mejorando muy, muy rápidamente, y cada semana parece haber un nuevo avance. Y queremos asegurarnos de que nuestro producto herede los aprendizajes de estos LLMs para que siempre puedas estar seguro de que estás utilizando la mejor herramienta disponible en el mercado. Una gran manera en que demostramos esto es que eliminamos el chat. Así que el chat es esto, un bot de chat, en un sentido muy ingenuo, es una especie de plataforma heredada. Es un paradigma heredado. Así que reemplazamos completamente el chat con un agente. Ahora, esas son dos cosas separadas, y esto es realmente lo que impulsa por qué Windsurf es único.

Así que aquí eliminamos el chat, y algunos usuarios ni siquiera saben que eliminamos el chat a favor de un agente, pero solo saben que están obteniendo una mejor experiencia. ¿Y qué significa esto? Un agente es capaz de usar herramientas a su disposición para encontrar información y tomar acciones. Así que, por ejemplo, si le hicieras una pregunta sobre un archivo, primero miraría ese archivo, luego respondería en consecuencia. Un ejemplo de una muleta que los bots de chat solían usar para manejar este caso eran las menciones. En el chat, podrías escribir @ en un nombre de archivo y luego buscar realmente un archivo y luego asegurarte de que ese contexto de archivo estuviera incluido en tu aviso. Hoy, Windsurf puede automáticamente inferir las relaciones entre archivos, y el 90% del tiempo no necesitas escribir @ para que entienda que quieres incluir esa pieza de contexto o buscar en la web o buscar una cierta pieza de documentación. Estas son todas cosas en las que los modelos se han vuelto tan buenos recientemente que no necesitamos la muleta de construir cosas como @ chat, @ archivo, @ web. El LLM simplemente lo sabe.

Y como un pequeño equipo de ingeniería, queremos asegurarnos de que siempre estemos escalando con inteligencia y construyendo para el futuro y no apoyándonos en los modelos de hoy. Cuando construyes cosas como @ archivo y @ menciones, terminas construyendo este tipo de muletas, estas reglas codificadas para lo que el modelo debería hacer, en lugar de confiar en que el LLM sea lo suficientemente inteligente para entender realmente qué hacer. Y de esta manera, queremos construir un producto donde el usuario pueda ser lo más productivo y fluido posible. Queremos asegurarnos de que podamos decidir automáticamente qué piezas de contexto recuperar, si usar herramientas o no, si editar o no el archivo. No queremos que el usuario tenga que especificar explícitamente estas cosas. ¿Entonces, cómo construimos para el futuro de la inteligencia? Creemos que los modelos seguirán mejorando y haciéndose más rápidos. Y queremos asegurarnos de que nuestro agente pueda hacer cosas como trabajar sin supervisión. Y en el futuro, podremos hacer cosas como generar PRs completos y consumir incluso la más compleja documentación y hacer cosas locas como implementar diseños de Figma dentro de una aplicación de React. Windsurf está diseñado desde cero para heredar estas ganancias de modelos en mejora. Y si no lo hace, ten la seguridad de que lo sabremos y podremos construir el próximo producto que podrá aprovechar esta inteligencia de la manera más efectiva.

8. Mejorando la Productividad con Windsurf

Short description:

Resumen de trayectorias y meta-aprendizaje. Mejorando la productividad con Windsurf. El futuro de la codificación con agentes de IA.

Así que para resumir, tenemos trayectorias, la idea de que Windsurf puede leer tu mente, meta-aprendizaje, que Windsurf se personaliza para ti con el tiempo, y tres, escalar con inteligencia. Somos agentes en nuestro núcleo. Y eso es lo que nos permite mejorar con la inteligencia del modelo.

Entonces, ¿a dónde vamos con esto? Windsurf ya hoy es capaz de hacer una serie de cosas que pueden mejorar tu productividad. Puede generar PRs de principio a fin e incluso redactar las descripciones de PR para ti. Así que vas a empezar a escribir. Vas a ver una sugerencia no solo para el resto de tu archivo o tu función, sino para tu solicitud de extracción completa. Vamos a poder empezar a corregir errores antes de que hayas completado funciones y comenzar a escribir y ejecutar pruebas unitarias en un sandbox detrás de escena.

También creemos que cosas como un archivo de reglas de punto van a estar completamente muertas para finales de 2025, y que el 99% de tus preferencias serán inferidas o aprendidas de tu uso. Ya estamos viendo a los usuarios hacer cosas asombrosas para mejorar su productividad con Windsurf, y solo va a mejorar cada vez más. Windsurf es el editor más avanzado del planeta. Ya está escribiendo el 90% del código de nuestros usuarios. Y los usuarios están realmente, realmente ansiosos por cambiarse a Windsurf para experimentar la magia y las mejoras en la productividad que vienen cuando abrazas agentes de IA dentro de tu flujo de trabajo de desarrollo de software. Estamos justo en el corazón de esta revolución de IA, y quiero asegurarme de que cada desarrollador esté armado con las mejores herramientas y las mejores herramientas disponibles en el mercado. Puedes experimentar la magia por ti mismo en windsurf.ai. Tenemos un generoso nivel gratuito, y nos encantaría que lo probaras. Gracias por escuchar.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

El Futuro de las Herramientas de Rendimiento
JSNation 2022JSNation 2022
21 min
El Futuro de las Herramientas de Rendimiento
Top Content
Today's Talk discusses the future of performance tooling, focusing on user-centric, actionable, and contextual approaches. The introduction highlights Adi Osmani's expertise in performance tools and his passion for DevTools features. The Talk explores the integration of user flows into DevTools and Lighthouse, enabling performance measurement and optimization. It also showcases the import/export feature for user flows and the collaboration potential with Lighthouse. The Talk further delves into the use of flows with other tools like web page test and Cypress, offering cross-browser testing capabilities. The actionable aspect emphasizes the importance of metrics like Interaction to Next Paint and Total Blocking Time, as well as the improvements in Lighthouse and performance debugging tools. Lastly, the Talk emphasizes the iterative nature of performance improvement and the user-centric, actionable, and contextual future of performance tooling.
IA y Desarrollo Web: ¿Exageración o Realidad?
JSNation 2023JSNation 2023
24 min
IA y Desarrollo Web: ¿Exageración o Realidad?
Top Content
This talk explores the use of AI in web development, including tools like GitHub Copilot and Fig for CLI commands. AI can generate boilerplate code, provide context-aware solutions, and generate dummy data. It can also assist with CSS selectors and regexes, and be integrated into applications. AI is used to enhance the podcast experience by transcribing episodes and providing JSON data. The talk also discusses formatting AI output, crafting requests, and analyzing embeddings for similarity.
Rome, ¡una cadena de herramientas moderna!
JSNation 2023JSNation 2023
31 min
Rome, ¡una cadena de herramientas moderna!
Top Content
Rome is a toolchain built in Rust that aims to replace multiple tools and provide high-quality diagnostics for code maintenance. It simplifies tool interactions by performing all operations once, generating a shared structure for all tools. Rome offers a customizable format experience with a stable formatter and a linter with over 150 rules. It integrates with VCS and VLSP, supports error-resilient parsing, and has exciting plans for the future, including the ability to create JavaScript plugins. Rome aims to be a top-notch toolchain and welcomes community input to improve its work.
Olvida el mal código, concéntrate en el sistema
React Summit US 2023React Summit US 2023
27 min
Olvida el mal código, concéntrate en el sistema
Top ContentPremium
Setting up the system and separating concerns are important in software development. Modular construction and prefab units are a new trend that makes construction quicker and easier. Architectural complexity can lead to a drop in productivity and an increase in defects. Measuring architectural complexity can help identify natural modules in the code. Best practices for avoiding architectural complexity include organizing code by business domain and using prop drilling. Atomic design and organizing a monorepo are recommended approaches for managing architectural complexity.
Confesiones de un Impostor
JSNation 2022JSNation 2022
46 min
Confesiones de un Impostor
Top Content
The Talk discusses imposter syndrome and reframes it as being a professional imposter. It emphasizes the importance of sharing and starting, embracing imposterism, and building inclusively for the web. The speaker shares personal experiences of being an imposter in various technical disciplines and highlights the significance of accessibility. The Talk concludes with the idea of building a collective RPG game to remove excuses for not making things accessible.
Conquistando la Complejidad: Refactorización de Proyectos JavaScript
JSNation 2024JSNation 2024
21 min
Conquistando la Complejidad: Refactorización de Proyectos JavaScript
Top Content
Today's Talk explores the complexity in code and its impact. It discusses different methods of measuring complexity, such as cyclomatic complexity and cognitive complexity. The importance of understanding and conquering complexity is emphasized, with a demo showcasing complexity in a codebase. The Talk also delves into the need for change and the role of refactoring in dealing with complexity. Tips and techniques for refactoring are shared, including the use of language features and tools to simplify code. Overall, the Talk provides insights into managing and reducing complexity in software development.

Workshops on related topic

Soluciona el 100% de tus errores: Cómo encontrar problemas más rápido con la Reproducción de Sesiones
JSNation 2023JSNation 2023
44 min
Soluciona el 100% de tus errores: Cómo encontrar problemas más rápido con la Reproducción de Sesiones
WorkshopFree
Ryan Albrecht
Ryan Albrecht
¿Conoces ese molesto error? ¿El que no aparece localmente? Y no importa cuántas veces intentes recrear el entorno, no puedes reproducirlo. Has revisado las migas de pan, leído la traza de pila y ahora estás jugando al detective para unir los tickets de soporte y asegurarte de que sea real.
Únete al desarrollador de Sentry, Ryan Albrecht, en esta charla para aprender cómo los desarrolladores pueden utilizar la Reproducción de Sesiones, una herramienta que proporciona reproducciones de video de las interacciones de los usuarios, para identificar, reproducir y resolver errores y problemas de rendimiento más rápido (sin golpear tu cabeza contra el teclado).
Cómo Crear una Aplicación Web de Manera (Casi) Autónoma Usando Clean Coder
Productivity Conf for Devs and Tech LeadersProductivity Conf for Devs and Tech Leaders
95 min
Cómo Crear una Aplicación Web de Manera (Casi) Autónoma Usando Clean Coder
Workshop
Grigorij Dudnik
Grigorij Dudnik
Imagina reemplazarte a ti mismo con un programador de IA multi-agente para desarrollar tu aplicación web de producción. Eso es exactamente lo que hicimos en mi startup takzyli.pl. Para lograr esto, diseñamos y utilizamos el Clean Coder - marco de agentes de IA para la escritura autónoma de código (https://github.com/GregorD1A1/Clean-Coder-AI), que es un proyecto de código abierto, con suerte. Si funcionó para nosotros, ¿por qué no debería funcionar para ti?En esta masterclass, te mostraré cómo crear una aplicación web completa de manera (casi) autónoma y reducir drásticamente el tiempo que tú o tus empleados pasan escribiendo código.
Test, Code, Repeat: Dominando el Desarrollo Asistido por AI
Productivity Conf for Devs and Tech LeadersProductivity Conf for Devs and Tech Leaders
53 min
Test, Code, Repeat: Dominando el Desarrollo Asistido por AI
Workshop
Marco Pierobon
Marco Pierobon
"Test, Code, Repeat: Dominando el Desarrollo Asistido por AI" introduce a los desarrolladores a una forma transformadora de codificación con AI como un socio colaborativo. Esta masterclass se centra en cómo los flujos de trabajo iterativos, como la técnica de emparejamiento ping pong, permiten una interacción mejorada entre la creatividad humana y la eficiencia de AI.