Software testing, cybersecurity y AI en tiempos modernos
English version, here.
Tenía tiempo que no escribía algo por estos lares. Las ocupaciones de la vida no me lo permitían, pero ahora tengo algo de tiempo para desempolvar mi blog.
Durante los pasados viernes 14 de noviembre y sábado 15 de noviembre, estuve atendiendo de manera presencial el evento de Nerdearla, en Madrid, España (es la primera edición de este evento que se realiza en Europa).
![]() |
| Figura 1. Con Brais Moure (https://moure.dev/), un experimentado software engineer. Me gané uno de sus libros. |
El evento consiste en una serie de charlas y talleres relacionadas al mundo del desarrollo de software: development, testing, UI/UX design, cybersecurity, infrastructure, management, soft-skills, etcétera. No es por hacerle promoción al evento, pero lo recomiendo ampliamente.
Atendí algunas charlas que llamaron mi atención (aunque lamentablemente hubo algunas otras que no pude atender porque había conflictos con los horarios) acerca de cybersecurity, AI y testing, y he llegado a confirmar lo que traigo en la cabeza desde hace tiempo: Los roles del software tester y del security engineer serán más imprescindibles que nunca.
¿Por qué? Bueno, con todo este boom tecnológico que estamos viviendo actualmente con la incursión de modelos cada vez más potentes de AI en el desarrollo de software, las personas, técnicas, y no técnicas, crean software que dista mucho de ser de buena calidad y seguro. Es muy preocupante, por ejemplo, como se han estado vendiendo las ideas de que los developers, testers, designers, etcétera, van a desaparecer porque serán reemplazados por la AI; y también es muy preocupante como personas con cero conocimientos técnicos en desarrollo de software crean aplicaciones a diestra y siniestra sin siquiera preguntarse si lo que están generando es fiable y funcional. Ha habido una confianza completamente ciega en la AI.
![]() |
| Figura 2. El Vibe Coding NO es programar. |
No me tomen a mal lo ultimo. Estoy de acuerdo en que personas no técnicas se incursionen en el desarrollo de software. He conocido a varias personas ajenas a IT desarrollarse muy bien como developers o testers. En lo que estoy en desacuerdo es en todas las ideas ¿utópicas/distópicas? que varios tech influencers han vendido a las personas diciendo una sarta de barrabasadas con respecto a la AI. Esto también me recuerda a otro caso que sucedió durante la pandemia: Varios de estos tech influencers vendían también las ideas de que estudiar una carrera universitaria era inútil y que lo mejor era estudiar un bootcamp o cualquier curso en línea para incursionar en la industria de IT (cualquier persona seria y sensata sabe que todo lo anterior son complementos para nuestras carreras universitarias y profesionales). Y lo peor: Vendieron también las ideas de que trabajar en IT era color de rosa y que se ganaba muy bien. Las consecuencias negativas de todo esto son evidentes actualmente.
E insisto: No me tomen a mal mis comentarios u opiniones. Estoy expresando todo esto desde mi punto de vista que refleja mucho de lo que he observado en la industria y que otros colegas de la misma me han platicado. Por favor, no sean tan severos conmigo al criticarme.
Entonces, como mencionaba párrafos atrás: Los roles del tester y del security engineer serán más imprescindibles que nunca (y espero que así sea).
![]() |
| Figura 4. NO olvides las bases. |
Le compartía a unos amigos que trabajan en esta noble industria de IT que no dudaría que en el futuro, con todo lo que está pasando rápidamente con la AI, los equipos de desarrollo estarían conformados por tres personas: un developer, un tester y un designer. Este modelo para mí sería lo ideal y lo más sano (en todos los aspectos) posible.
Pero lamentablemente estamos viendo todo lo contrario, y es muy triste cómo las personas con el poder de tomar grandes decisiones, además de tener el dinero en sus manos para invertir en lo que sea, no hacen nada, porque no quieren, para hacer de esta profesión lo más humana posible. No dudaría, pues que en el futuro al final termine siendo una sola persona haciendo de todo (el famoso «todólogo»).
![]() |
| Figura 5. Crear software NO es programar. |
Quizá algunos me dirán «Armando, así funciona el capitalismo. El dinero manda y nosotros nos movemos por él. ¿A ti qué te importa?» o «Armando, ¿estás insinuando acaso hacer una revolución? ¡Eso es comunista!». No, no y no. Nada de eso. Aquí es donde entran en juego, para mí, las partes filosófica y teológica. Algunos de ustedes saben que actualmente estoy estudiando la maestría en Teología del Cuerpo (que espero acabar en el primer semestre del 2026); y en mis estudios he profundizado cada vez más en cómo las nuevas tecnologías y tendencias actuales, además de diferentes ideologías, han denigrado al ser humano y lo han convertido y reducido en un simple objeto que mientras produzca algo bueno y rentable es útil. Vamos, que esto es utilitarismo y el hombre no se define por lo efímero sino por lo trascendental.
Lo triste de lo anterior, es que hay personas que están de acuerdo en aceptar condiciones de trabajo que dejan mucho que desear, porque «eso es lo que hay y ni modo. ¡A apechugarnos!».
Me he desviado del tema, pero ha sido a propósito, porque quería expresar lo anterior que también va muy ligado con todo el tema de la AI. Pero, regresando al principio: Es para mí muy preocupante hacia dónde se está dirigiendo el desarrollo de software. Como tester, y con algo de conocimientos en seguridad, no dejo de pensar en muchas cosas en torno a todo esto: ¿Qué clase de productos estamos desarrollando para los usuarios finales? ¿Nos preocupan los usuarios finales? ¿Realmente nos está importando la calidad de lo que estamos entregando? ¿O solamente estamos enfocados en entregar, entregar y entregar, sin importar cuántos millones de euros (o incluso vidas humanas) se pierdan en el proceso? ¿Qué tan relacionada está la «obsolecencia programada» con el desarrollo de software? ¿Hemos observado con suficiente detalle las medidas de seguridad necesarias para no exponernos ante posibles ataques cibernéticos que nos hagan perder cuantiosas sumas de dinero o, lo más valioso, vidas humanas? ¿Quién tiene acceso a nuestros datos, y cómo se están manejando? ¿Qué criterios se utilizarán para el uso de la AI en sectores como la milicia? ¿Cómo sabremos que la AI no será utilizada en contra nuestra en conflictos armados? ¿Qué implicaciones éticas y morales se están siguiendo para seguir desarrollando la AI?
![]() |
| Figura 6. AI-First Web browsers "nightmare": ChatGPT Atlas vs Perplexity Comet. |
Por último. Yo utilizo la AI en mis tareas de codificación. Ha sido una buena aliada para mí. Pero no le confío todo a ella ciegamente. Hace poco tuve una entrevista técnica donde me preguntaron cómo hacía para validar que los outputs que me generaban los modelos de AI cuando les preguntaba algo eran correctos. Yo respondí «por intución». Y sí. Cada que leo el código que me generan los modelos, hay algo en mí que me dice «esto es muy bueno para ser verdad» o «algo no me cuadra» y empiezo a hacer una investigación más profunda (pero sin utilizar AI). Como saben, la AI puede llegar a alucinar y a generar respuestas demasiado complejas o largas que al final del día son poco, o nada, escalables, legibles y mucho menos mantenibles. Hasta puede inventar cosas que a simple vista parecen tener sentido, pero no funcionan. El pensamiento crítico juega un papel muy importante en todo esto. Quizá los años de experiencia que tengo me han hecho desarrollar estas habilidades.








Comentarios
Publicar un comentario