Hechos profundamente inquietantes sobre los deepfakes

Ahora se dijo bastante sobre los distintos riesgos potenciales de la inteligencia artificial, aun si lo malo aún puede estar bastante más adelante. La inteligencia artificial puede ser vigorosa y revolucionaria, si bien algo tal como una toma de control de una máquina inmoral, por lo menos con la tecnología de hoy, semeja bastante improbable.

No obstante, una app de inteligencia artificial ha adelantado de forma alarmante en los últimos tiempos. Los deepfakes son fundamentalmente animaciones o vídeos falsos generados por inteligencia artificial que podrían editarse para llevar a cabo cualquier cosa, y con eso deseamos decir cualquier cosa. Puedes realizar un vídeo falso de una celebridad realizando algo concreto que desees, o de un líder mundial con armas nucleares conminando a otro, o verdaderamente cualquier otra cosa. Las opciones son infinitas, de ahí que es tan arriesgado. ¿La peor parte? En este punto, la tecnología es ya tan buena que es realmente difícil entender si es verdadera sin un análisis forense elaborado.

Los deepfakes se han apoderado de las células de ciberdelincuencia de países de todo el planeta, gracias a sus distintas apps en delitos como pornografía de venganza, hurto de identidad, golpes políticos, etcétera. Las intranquilidades asimismo están bien fundadas, como deepfakes, y su integración con otras apps de IA (inteligencia artificial). – han paseo un largo sendero en solamente cinco años.

10. Es un género de delito totalmente nuevo

No lo vacilamos deepfakes terminantemente se utilizaría para algo positivo más adelante, tal como lo son la mayor parte de las tecnologías originales. Lo que es alarmante, no obstante, es el elevado número de apps en el delito.

Tome su empleo en el porno de venganza como un ejemplo. Según las leyes actuales en la mayor parte de los países de todo el mundo, el delito de subir una fotografía o vídeo de otra persona sin permiso tiene una línea clara de compromiso que, si está, podría rastrearse hasta el culpable. Ese no es la situacion de los deepfakes, puesto que no precisas solamente que una foto para hacerlos. Olvídese de la trazabilidad; Según nuestras leyes recientes, estos delitos no están correctamente categorizados, lo que expone ciertas cuestiones bien difíciles sobre de qué forma lidiar con ellos.

Para tomar el ejemplo citado previamente, no nos encontramos seguros de qué género de delito eso sería. ¿Es voyerismo? Podría decirse que no hay una invasión real de la intimidad de un individuo real sin su permiso, en tanto que la imagen o el vídeo falsos no existen para todos y cada uno de los propósitos legales. Bajo el sistema de hoy, el único inconveniente aquí es tomar contenido de la cuenta de comunidades de alguien que está libre en el dominio público, aun si eso no se aproxima a argumentar la gravedad del delito.

9. En este momento puedes realizar deepfake a un individuo totalmente novedosa

https://www.youtube.com/watch?v=Ex-83dhTn0IU

Aun para el artista mucho más hábil que hay, es realmente difícil dibujar una cara que no existe. Todo nuestro arte es una pura imitación de todo el mundo que observamos a lo que nos rodea, y la creación de algo realmente extraño o inexistente es imposible para prácticamente todos nosotros. Ahí es donde entran las PCs, puesto que no tienen exactamente las mismas barreras en su imaginación.

El arte generado por la inteligencia artificial se volvió viral múltiples ocasiones anteriormente reciente y se luce por lo diferente que es de todo cuanto conocemos. Al paso que el arte de la inteligencia artificial se encontraba limitado a ilustraciones y también imágenes indescifrables hasta la actualidad, los deepfakes lo llevaron un paso mucho más allí. En este momento tenemos la posibilidad de producir caras totalmente novedosas con el apoyo de inteligencia artificial y deepfakes y, lo que es alarmante, es realmente difícil decir que no hay en lo más mínimo. La parte realmente temible, no obstante, es por estudio automático, los deepfakes tienen la posibilidad de llevar a cabo todo eso sin supervisión humana.

8. Ahora están provocando una exclusiva carrera armamentista mundial

Las novedosas tecnologías con frecuencia se ven con sospecha, que tiende a ser lo que desata las carreras de armamentos. Lo mismo sucede con la inteligencia artificial, y las deepfakes particularmente, en tanto que prácticamente todas las naciones esenciales trabajan hoy en día en maneras de perfeccionar la tecnología. Hay una diferencia clave entre los deepfakes y cualquier otra tecnología militar del pasado, no obstante, no poseemos una visión clara de hacia dónde nos nos encontramos dirigiendo.

En el más destacable de las situaciones, entendemos lo que nos encontramos construyendo, que es una tecnología que puede falsificar cualquier cosa a un nivel que no tenemos la posibilidad de advertir. Su número de apps, no obstante, es sorprendentemente extendido y todavía bastante poco claro.

Lo que está claro, no obstante, es que un deepfakes global carrera de armamentos ahora está en marcha, y tampoco más adelante lejano. Los deepfakes ahora comenzaron a influir en la política de todo el mundo de hoy y se han usado en bastantes campañas políticas y golpes de estado en el mundo entero en los últimos tiempos.

7. El planeta occidental no está verdaderamente bajo riesgo

Se dijo bastante sobre el papel de los deepfakes en el momento de influir en el resultado de las selecciones, lo que asimismo sucede con una de sus apps mucho más peligrosas. Imagínese una tecnología tan avanzada que alguno logre realizar cualquier cosa en un registro fotográfico. Puede lograr que un político pronuncie cualquier alegato falso que quiera, o lograr que un líder estatal falso declare una urgencia militar, todo ajustando ciertas cosas en una PC. Las opciones son infinitas, a pesar de que los países desarrollados no van a sentir las secuelas mucho más asoladoras de esta tecnología. Más allá de que es verdad que la utilización de deepfakes entre las ciudades occidentales conocedoras de la tecnología para influir en las selecciones todavía es una amenaza incesante, estos países todavía tienen varios controles para no permitir que se salga de control.

El sur global, por otra parte, es considerablemente más empobrecido y susceptible a campañas manufacturadas destinadas a cultivar altercados con la asistencia de deepfakes. Las tensiones étnicas aún son altas en numerosos países de Asia, África y Medio Oriente, y es prácticamente seguramente se emplearían deepfakes para afianzar aún mucho más esas líneas.

6. Desacreditan pruebas reales y aceptables

Más allá de que los deepfakes podrían emplearse para bastantes propósitos deplorables, su encontronazo en la psique humana colectiva sería mucho más profundo que únicamente una mayor tasa de delincuencia. Como sociedad, confiamos en las fotografías y los vídeos a fin de que sean representaciones exactas de la verdad, en tanto que todo, desde la candidatura política hasta las indagaciones de la escena del delito, acepta que las cosas en las fotografías y vídeos son como son de todos modos. Aun con nuestras mejores falsificaciones, es viable, y con frecuencia bastante simple, comprender qué es verdadera y qué no.

Con deepfakes, ese por el momento no sería la situacion. En un planeta donde los vídeos y las fotografías se tienen la posibilidad de llevar a cabo para realizar cualquier cosa, no va a tener sentido confiar en imágenes para cualquier cosa. En verdad, las fotografías y los vídeos tienen la posibilidad de parar de ser medios para atrapar instantes humanos completamente, puesto que una inteligencia artificial probablemente sería con la capacidad de “llevar a cabo” mejores fotografías de las que usted nunca podría atrapar; sería un cambio primordial y persistente en la manera en que interactuamos con el planeta que nos circunda.

5. Afectan de forma desmedida a las mujeres

No cabe duda de que los deepfakes causarían varios inconvenientes nuevos y también imprevisibles en los temas globales. De todos modos, por esa razón son ya tan buenos, puesto que las campañas electorales son varios de los mayores empleadores de tecnologías como estas.

No obstante, ciertas de sus secuelas mucho más graves no las van a sentir un país o un líder mundial, sino más bien las mujeres recurrentes. Los deepfakes ahora se están usando para llevar a cabo el género de porno de venganza que jamás antes fue viable: uno que no existe. Siempre y cuando tenga una foto de ellos, en este momento puede llevar a cabo vídeos porno de prácticamente cualquier persona que quiera. Podría ser una celebridad desprevenida, un ex- o sencillamente cualquier mujer fuera de Internet.

4. Entre los mayores riesgos para la paz mundial

Varias cosas aparecen en la lista de los mayores riesgos para la paz mundial, como el terrorismo, la hambruna mundial, las armas nucleares, el bioterrorismo, etcétera. Más allá de que todos ellos son sin lugar a dudas bastante peligrosos, la inteligencia artificial está surgiendo de manera rápida como un medio posible, y probablemente aun el mucho más mortífero – opción alternativa a todos ellos.

Varios científicos y otros especialistas han emitido observaciones contra la continuación de la investigación en Sabiduría Artificial. Asimismo por una aceptable razón, puesto que ahora llegó suficientemente lejos para alarmarnos. La inteligencia artificial de 2020 puede repararse a sí, andar por Internet y estudiar cosas por sí sola como un estudiante, y redactar su programa de inteligencia artificial. propio.

Conjuntar eso con deepfakes, y no hay escasez de cosas que podrían salir mal, y todo eso ahora sucede. Tomemos el ejemplo de las recientes selecciones en India, donde los deepfakes se usaron en todo su capacidad por vez primera. O el de Gabón – un pequeño país de África – donde el temor a los deepfakes se ha usado para comenzar un golpe. Los deepfakes ahora están desestabilizando el planeta, si bien es intrínsecamente irrealizable detenerlos pues:

3. Están diseñados para prosperar por sí solos

La mayor parte de la multitud considera que los auténticos riesgos de los deepfakes y otras apps de IA (inteligencia artificial) se encuentran en lo que tienen la posibilidad de realizar. Ahora son novedad por entrometerse en las selecciones en el mundo entero, y todos vimos suficientes películas cyberpunk para entender dónde acaba todo lo mencionado.

No obstante, como varios especialistas le afirmarían, los deepfakes y la inteligencia artificial no solo dan temor con lo que tienen la posibilidad de realizar, sino más bien por de qué forma lo hacen. Estudio automático se encuentra dentro de los inventos mucho más renovadores de nuestro tiempo, y es esta aptitud de emplear sus datos para corregirse y ver el planeta que lo circunda para estudiar lo que provoca que los deepfakes y la inteligencia artificial sean tan peligrosos.

Una inteligencia artificial de Hollywood sencillamente se volvería rebelde, se armaría y trataría de matar a todos. Una inteligencia artificial real, por otra parte, podría realizar todos y cada uno de los desenlaces en su cabeza antes de tomar cualquier resolución. Si sustituir a un mandatario político sirve a sus propósitos mejor que una toma armada absoluta, ese es el sendero que tomaría, mientras que optimización aún mucho más en la decisión de sus caminos futuros.

Eso es lo realmente arriesgado del estudio automático y, gracias a ello, la IA (inteligencia artificial) y las falsificaciones profundas del futuro serían infalibles y prácticamente inviábles de progresar, si aún no lo están.

2. Fotografías en movimiento

Si recuerdas el cosmos de Harry Potter, recordarías que todas y cada una de las fotografías de todo el mundo están regularmente en movimiento. Para esos que no están familiarizados con el cosmos, no es nada difícil; es solo magia. Eso sí, no son equivalentes a los marcos de fotografías animados o algún otro género de vídeos en el planeta real. Las fotografías en el planeta mágico de Harry Potter tienen personalidades propias e inclusive interaccionan con otros individuos vivos.

Más allá de que algo precisamente de esta forma tomaría un tanto mucho más de tiempo para realizarse, los deepfakes tienen la posibilidad de haber aprendido de qué manera lograr que las imágenes se muevan. Programadores en Samsung han creado una tecnología que usa IA (inteligencia artificial) y deepfakes que puede lograr que cualquier rostro en una imagen se mueva, con una cantidad asombroso y temible de control sobre lo que puede realizar.

1. No contamos forma de contrarrestarlo

Con todos y cada uno de los reportes preocupantes, uno pensaría que nuestra infraestructura de seguridad cibernética estaría haciendo un trabajo horas plus para contrarrestarlos, puesto que los deepfakes son una seria amenaza para todos. El inconveniente, no obstante, es que no entendemos de qué manera seguir.

Hoy día, sencillamente no poseemos forma de remover, o aun advertir con precisión sin un análisis forense completo, las imágenes o vídeos falsos La Internet. No poseemos ningún programa o algoritmo para comprender con precisión si algo fue generado por una inteligencia artificial o un óptimo Photoshop. Es un caso tradicional de tecnología que avanza mucho más veloz de lo que podría regularse.

Aun si tuviésemos una manera precisa de advertir deepfakes, es aún mucho más bien difícil detallar la intención. ¿De qué forma se divide un meme editado que hace una broma inofensiva con una campaña on-line desarrollada deliberadamente por una capacidad extranjera destinada a desequilibrar el país? Posiblemente tenga una contestación clara a eso, pero es muy posible que no se sostenga en un tribunal de justicia. Aun si lo descubrimos, ¿de qué manera tenemos la posibilidad de responsabilizar a alguien por un vídeo sin nombre generado por una máquina en Internet?

Gracias a nuestra contrariedad para clasificar y parar los delitos relacionados con deepfakes, hubo pocos o ningún control sobre lo que puede llevar a cabo. Los deepfakes de el día de hoy son peligrosamente avanzados y tienen la capacidad de realizar cosas que no podíamos ni hace un par de años, mientras que aún descubrimos de qué manera detenerlos.

About the author

Leave a Reply

Your email address will not be published. Required fields are marked *