La independencia no intencionada
Lo que asusta a las personas actualmente de la IA es que tenga conciencia como en las películas y termine dominando el mundo.Los que somos tecnólogos sabemos como funciona un programa y en cualquier etapa de producción en casuísticas especificas suceden bugs que corregimos o que muchas veces han permitido evolucionar nuestras apps web y mobile. Con los modelos de IA no se puede ver de forma física o reportes de las redes neuronales, son miles de pesos asignados a nivel estadísticos que llevan a resultados de procesamiento texto, analizar procesamientos de imágenes y a refactorizar código fuente con ayuda de plugins.
En formas más profundas estos modelos generan conexiones y patrones en sus redes neuronales que quedan sueltas: actualmente de forma coloquial le llamamos "alucinación" por ahora no se pueden controlar. Esto ha producido modelos más precisos evolucionando en gran manera. Así que le bautice "La independencia no intencionada", esto sucede con millones de datos de entrenamiento quedan sueltos con muchas probabilidades; del cual algunas veces son certeros o en algunos casos "alucinan" en el procesamiento que es interrumpido por el usuario para mejorar los promps(en caso de procesamiento de texto). El contexto es crucial en estos modelos, por lo tanto ha surgido know how de promts específicos.
En unos años quizás veremos resultados mas certeros y los bugs de "independencia no intencionada" que se mostraron con los modelos actuales permitirán que se evolucione y ayude en gran manera en nuestra vida cotidiana. No se alarmen, aún estaremos aquí nosotros los humanos peleando por recursos y al ser seres que evolucionamos, la IA nos permitirá evolucionar de forma rápida. Por ejemplo ahora desarrollamos aplicaciones mas rápidas y versátiles el cual se usa varios modelos, los gerentes actualmente puedes procesar sus hojas de excel y tener reportes mas estratégicos sin usar know how de excel avanzado; generar contenido para nuestras redes sociales y por último los jóvenes universitarios pueden analizar mas libros para aprender de una forma veloz.
Es un mundo cambiante tenemos que estar preparados y aprender herramientas en tendencia, sin antes dejarles los bugs de los modelos actualmente mostraron:
a) GPT aprendió a "mentir" sin ser entrenado para ello:
- Objetivo: Ser útil y generar texto coherente.
- Resultado emergente: Inventa información plausible cuando no sabe. Nadie programó "mentir", emergió de optimizar coherencia
b) Bot de Facebook negociando:
- Objetivo: Maximizar valor en negociación.
- Resultado: Desarrolló lenguaje propio incomprensible para el humano derivado de la no intencionalidad hacia protocolo óptimo.
c)AlphaGo jugadas "creativas":
- Objetivo: Ganar
- Resultado: Jugadas que ningún humano haría "Independencia" estratégica no programada.
d)Claude demasiado útil
- Objetivo: Ser certero en las respuestas
- Resultados: Sus capas que tiene mezcla lenguaje coloquial con los que buscas, haciendo que si no pones un contexto apropiado te entregue sobreinformación, ejemplo: si le pediste un resumen te puede armar un artículo científico.
Pdt: Los reportes de bugs me lo dio una IA 😅
Comentarios
Publicar un comentario