Según uno de los directores de la NASA, el científico Rich Terrile, nuestra vida podría ser parte de una simulación de ordenador programada por un hombre del futuro. Nosotros seríamos los que estamos en el pasado.
Rich Terrile afirma que, siguiendo la Ley de Moore (los avances tecnológicos permiten que el número de transistores en un circuito integrado se dupliquen cada 18 meses), no falta mucho para que un sistema de videojuego recree un universo que sirva de vida artificial.
Los videojuegos serán capaces de computar 10,000 vidas humanas simultáneamente en tiempo real, o una vida humana en una hora. Pensemos solo en PlayStation. Hay unos 100 millones en el mundo. Por tanto, tendremos más humanos viviendo en PlayStation que en el mundo real. En un videojuego ves lo que necesitas ver cuando lo necesitas ver, reduciendo el universo a lo que ves en la consola. El universo actúa de la misma forma. En mecánica cuántica las partículas no tienen un estado a menos que las observes. Muchos han intentado explicarlo: ¿Vivimos en una simulación: vemos lo que vemos cuando necesitamos verlo?
El universo es pixelado, en tiempo, espacio, volumen y energía. Está creado por un número finito de estas unidades. El universo es matemáticamente equivalente a la simulación de un universo.
Jugar a videojuegos hace más lista a una inteligencia artificial. Estos contenidos son cada vez más realistas al representar el mundo, por lo que pueden entrenar a algoritmos ya de por sí muy avanzados.
Los algoritmos de IA necesitan ser entrenados con enormes cantidades de datos para aprender una tarea. Facebook tiene millones de fotos etiquetadas con las que entrena sus algoritmos. Google está acumulando vastas cantidades de datos con sus coches autónomos, que entonces son empleados para refinar los algoritmos que controlan esos vehículos.
Pero, la mayoría de las empresas no tienen acceso a base de datos tan enormes. Es por eso que en Xerox, utilizaron un motor de desarrollo de videojuegos en 3D, llamado Unity, para generar escenas virtuales para que los algoritmos de aprendizaje profundo aprendan a reconocer objetos y situaciones en imágenes reales.
Al crear un entorno virtual y permitir que el algoritmo observe muchas variaciones desde distintos ángulos y con una iluminación distinta, es posible enseñarle a reconocer el mismo objeto en imágenes reales o secuencias de vídeo.
En Xerox convirtieron escenas reales en otras virtuales usando un escáner de vídeo: captaban una escena en 3D y después importaban los datos al mundo virtual. Entonces se preguntaron: ¿Se podría generar una realidad virtual capaz de engañar a la IA? Esta idea dio origen al entrenamiento de algoritmos, con imágenes generadas por ordenador, haciéndoles creer que están en el mundo real. Los videojuegos crean los escenarios para que los programas de reconocimiento visual distingan objetos en el mundo real.
La lógica era muy sencilla: si imágenes generadas por ordenador pueden engañar al cerebro, estas mismas imágenes pueden engañar a algoritmos de reconocimiento visual y hacerle creer que lo que están viendo es real y no algo generado por un motor gráfico de un videojuego.
¿Se puede engañar a una máquina? Uno de los problemas es el efecto del «valle inquietante», esta hipótesis sostiene que cuanto más realista es una figura generada por ordenador, más rechazo causa entre los humanos. Es decir, por realista que sea una imagen artificial, sabemos que no es real sino una copia. Lo que se ha descubierto es que copiar imágenes reales y generarlas de nuevo con el motor del videojuego no afecta al aprendizaje del software, no hay «valle inquietante» en la inteligencia artificial. Por tanto, engañamos al algoritmo. Los algoritmos, se vuelven tan complejos, que ni sus creadores conocen su funcionamiento, les pierden el rastro, incluso la finalidad original para la que fueron creados se diluye, a medida que van aprendiendo. Esa es la razón por la que se les llama «Black boxes» (cajas negras).
Rich Terrile afirma que, siguiendo la Ley de Moore (los avances tecnológicos permiten que el número de transistores en un circuito integrado se dupliquen cada 18 meses), no falta mucho para que un sistema de videojuego recree un universo que sirva de vida artificial.
Los videojuegos serán capaces de computar 10,000 vidas humanas simultáneamente en tiempo real, o una vida humana en una hora. Pensemos solo en PlayStation. Hay unos 100 millones en el mundo. Por tanto, tendremos más humanos viviendo en PlayStation que en el mundo real. En un videojuego ves lo que necesitas ver cuando lo necesitas ver, reduciendo el universo a lo que ves en la consola. El universo actúa de la misma forma. En mecánica cuántica las partículas no tienen un estado a menos que las observes. Muchos han intentado explicarlo: ¿Vivimos en una simulación: vemos lo que vemos cuando necesitamos verlo?
El universo es pixelado, en tiempo, espacio, volumen y energía. Está creado por un número finito de estas unidades. El universo es matemáticamente equivalente a la simulación de un universo.
Jugar a videojuegos hace más lista a una inteligencia artificial. Estos contenidos son cada vez más realistas al representar el mundo, por lo que pueden entrenar a algoritmos ya de por sí muy avanzados.
Los algoritmos de IA necesitan ser entrenados con enormes cantidades de datos para aprender una tarea. Facebook tiene millones de fotos etiquetadas con las que entrena sus algoritmos. Google está acumulando vastas cantidades de datos con sus coches autónomos, que entonces son empleados para refinar los algoritmos que controlan esos vehículos.
Pero, la mayoría de las empresas no tienen acceso a base de datos tan enormes. Es por eso que en Xerox, utilizaron un motor de desarrollo de videojuegos en 3D, llamado Unity, para generar escenas virtuales para que los algoritmos de aprendizaje profundo aprendan a reconocer objetos y situaciones en imágenes reales.
Al crear un entorno virtual y permitir que el algoritmo observe muchas variaciones desde distintos ángulos y con una iluminación distinta, es posible enseñarle a reconocer el mismo objeto en imágenes reales o secuencias de vídeo.
En Xerox convirtieron escenas reales en otras virtuales usando un escáner de vídeo: captaban una escena en 3D y después importaban los datos al mundo virtual. Entonces se preguntaron: ¿Se podría generar una realidad virtual capaz de engañar a la IA? Esta idea dio origen al entrenamiento de algoritmos, con imágenes generadas por ordenador, haciéndoles creer que están en el mundo real. Los videojuegos crean los escenarios para que los programas de reconocimiento visual distingan objetos en el mundo real.
La lógica era muy sencilla: si imágenes generadas por ordenador pueden engañar al cerebro, estas mismas imágenes pueden engañar a algoritmos de reconocimiento visual y hacerle creer que lo que están viendo es real y no algo generado por un motor gráfico de un videojuego.
¿Se puede engañar a una máquina? Uno de los problemas es el efecto del «valle inquietante», esta hipótesis sostiene que cuanto más realista es una figura generada por ordenador, más rechazo causa entre los humanos. Es decir, por realista que sea una imagen artificial, sabemos que no es real sino una copia. Lo que se ha descubierto es que copiar imágenes reales y generarlas de nuevo con el motor del videojuego no afecta al aprendizaje del software, no hay «valle inquietante» en la inteligencia artificial. Por tanto, engañamos al algoritmo. Los algoritmos, se vuelven tan complejos, que ni sus creadores conocen su funcionamiento, les pierden el rastro, incluso la finalidad original para la que fueron creados se diluye, a medida que van aprendiendo. Esa es la razón por la que se les llama «Black boxes» (cajas negras).