Un algoritmo es un procedimiento o conjunto de
instrucciones paso-a-paso, utilizado con frecuencia en una computadora para
resolver un problema, que hoy en día típicamente se ejecuta a una
velocidad y a una escala increíble. La intensidad y lo variado del uso de
los algoritmos nos permite pensar que estamos viviendo la revolución de los
algoritmos y posiblemente su principal reto a futuro es el hecho que
las máquinas y los algoritmos que los accionan se han venido haciendo cada vez
más complejas y rápidamente se está perdiendo la habilidad de entender como
funcionan y de anticipar su comportamiento o de detectar las debilidades no
previstas. Para ponerlo en contexto, en la colocación de un hombre en la luna
en 1.969 se usaron 145.000 líneas de código y ahora se requieren más 2 mil
millones de código para procesar Google, con el agravante adicional que los
sistemas actuales son además laberintos de interconexión.
Por ello, la principal fuente de dificultad no
está en la programación de los algoritmos, sino más bien en lograr que
quienes los administren entiendan aquello que los algoritmos hacen bien, para
cuáles preguntas tienen respuestas y para cuáles no las tienen. Es una
responsabilidad del más alto nivel de la organización que los administra.
Aquello que puede hacer un algoritmo es enormemente poderoso e incluye: identificación
de patrones demasiado sutiles para la observación humana, el uso de dichos
patrones para generar percepciones precisas y la información para la toma de
mejores decisiones.
El reto de la Revolución de los
Algoritmos
El reto es entender los riesgos y las
limitaciones, ya que construido dentro de los algoritmos están (1) los valores
humanos de sus desarrolladores, (2) las necesidades comerciales de sus
creadores y (3) límites de la comprensión humana. Hasta los más
sofisticados algoritmos y aplicaciones de Inteligencia Artificial
(particularmente los sistemas de aprendizaje profundo), en última
instancia están limitados por la imaginación y por la visión futurística de sus
desarrolladores en términos de las entradas que pueden identificar, de
las salidas que pueden controlar y de la lógica que aplican. Esa complejidad
obliga a cuidar el más mínimo error, por el impacto que pueda tener, y además
considerar las vulnerabilidades asociadas a cualquier algoritmo.
Limitaciones de los algoritmos
Los algoritmos en esencia, transfirieren
comprensión o percepción desde un contexto a otro. Ellos usan data existente
para predecir lo que puede ocurrir en
un ámbito ligeramente distinto (entorno, población, tiempo, una
pregunta). Las predicciones que se realizan bajo un contexto específico no
necesariamente aplican de igual manera a un contexto distinto. Saber lo
que un algoritmo no puede decir es tan importante cómo conocer lo que si puede.
También es importante recordar que correlación no significa causalidad. Aún
cuando un algoritmo es capaz de hacer predicciones, ello no elimina la
necesidad de cuidar la identificación de conexiones entre causa y efecto,
ya que el algoritmo no es un reemplazo a experimentos controlados.
Objetivos y opciones en los algoritmos
- · Si se trata de un objetivo blando, este debe ser identificado, definido y cuantificado de acuerdo a su orden de importancia. Ya que los objetivos blandos son difíciles de cuantificar, es necesario tener cuidado extremo en la toma de acciones sobre resultados de ese tipo de algoritmo.
- · Los algoritmos no entienden de equilibrios entre opciones compensatorias (trade-off) – Teniendo identificado el objetivo principal y una lista de inquietudes, el diseñador del algoritmo debe construir los equilibrios entre las posibles opciones. Esto puede implicar expandir el objetivo para que incluya múltiples resultados, ponderados por importancia relativa.
No hay comentarios.:
Publicar un comentario