Tema: Principios Asilomar de la IA, 23 principios diseñados para asegurar que la inteligencia artificial siga siendo una fuerza para el bien

Mensajes

  • MaximVR

    17 Jun 2014 19:51

    Mensajes: 1163

    Visores

    Oculus Go
    MaximVR » 3 FEB 2017  10:58

    El nombre por si solo da para título de un libro de ciencia ficción o quizás sea recordado en el futuro como un momento decisivo al nivel de lo que supuso el tratado de Tordesillas.

     

    La lista completa de los Principios de Asilomar AI se lee como una versión extendida de las famosas Tres Leyes de Robótica de Isaac Asimov. Los 23 puntos se agrupan en tres áreas: Cuestiones de Investigación, Ética y Valores, y Cuestiones a Largo Plazo.

     

    Fuentes:
    newatlas.com/future-of-life-institute-asilomar-ai-principles/47724/

     

    futureoflife.org/ai-principles/

     

    www.cromo.com.uy/elaboran-principios-que-la-inteligencia-artificial-no-sea-una-amenaza-n1024814

    Elaboran principios para que la inteligencia artificial no sea una amenaza

    Se teme que alcance el nivel humano de inteligencia y sea "más peligrosa que armas nucleares"

    El cosmólogo Stephen Hawking y el director general de Tesla, Elon Musk, respaldaron esta semana un conjunto de principios que fueron establecidos para asegurar que las máquinas de inteligencia artificial actúen en el mejor interés de la humanidad.

    Los investigadores creen que las máquinas podrían alcanzar niveles humanos de inteligencia en las próximas décadas. Una vez que lleguen a este punto, podrían comenzar a mejorar y a crear otras inteligencias artificiales más poderosos, conocidos como superinteligencias.

    En 2014, Musk advirtió que las inteligencias artificiales tienen el potencial de ser "más peligrosas que las armas nucleares". Hawking, por su parte, expresó que estas máquinas podrían acabar con la humanidad.

    Los 23 principios diseñados para asegurar que la inteligencia artificial siga siendo una fuerza para el bien, conocidos como los Principios Asilomar de la IA, se dividen en tres categorías:

    Cuestiones de investigación
    Ética y valores
    Problemas a largo plazo

    Los principios fueron creados por el Future of Life Institute, una organización de investigación y divulgación que tiene el objetivo de mitigar los riesgos existenciales que enfrenta la humanidad, particularmente los que involucran la inteligencia artificial avanzada.

    Tanto Hawking como Musk forman parte del consejo de asesores del instituto.

    "La inteligencia artificial ya ha proporcionado herramientas beneficiosas que son utilizadas todos los días por personas de todo el mundo", escribió el Future of Life Institute en su sitio web. "Su desarrollo continuo, guiado por estos principios, ofrecerá oportunidades asombrosas para ayudar y empoderar a la gente en las décadas y siglos por venir".

    Los principios se desarrollaron a partir de una conferencia que tuvo lugar a principios de este mes con la asistencia de algunas de las figuras más destacadas en la comunidad científica dedicada a este tema.

    Lista de Principios Asilomar de la IA

    Meta de la investigación: el objetivo de la investigación de la IA debería ser crear inteligencia beneficiosa.

    Financiación de la investigación: la inversión en IA debería ir acompañada de fondos para investigar en asegurar su uso beneficioso.

    Enlace entre ciencia y política: debería haber un intercambio constructivo y sano entre los investigadores de IA y los legisladores.

    Cultura de la investigación: una cultura de cooperación, confianza y transparencia debería ser fomentada entre los investigadores y desarrolladores de IA.

    Evitar las carreras: los equipos que estén desarrollando sistemas de IA deberían cooperar activamente para evitar chapuzas en los estándares de seguridad.

    Seguridad: los sistemas de IA deberían ser seguros a lo largo de su vida operativa, y verificables donde sea aplicable y posible.

    Transparencia en los fallos: si un sistema de IA causa daño debería ser posible determinar por qué.

    Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.

    Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones.

    Alineación de valores: los sistemas de IA deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos.

    Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

    Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a los sistemas de IA el poder de analizar y utilizar esa información.

    Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.

    Beneficio compartido: las tecnologías de IA deberían beneficiar y fortalecer a tanta gente como sea posible.

    Prosperidad compartida: la prosperidad económica creada por la IA debería ser compartida ampliamente, para el beneficio de toda la Humanidad.

    Control humano: los seres humanos deberían escoger cómo y si delegan decisiones a los sistemas de IA para completar objetivos escogidos previamente.

    Sin subversión: el poder conferido por el control de sistemas de IA altamente avanzados debería respetar y mejorar, más que subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

    Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas autónomas letales.

    Capacidad de precaución: al no haber consenso, deberíamos evitar las asunciones sobre los límites superiores de las futuras capacidades de la IA.

    Importancia: la IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el cuidado y los recursos adecuados.

    Riesgos: los riesgos asociados a los sistemas de IA, especialmente los catastróficos o existenciales, deben estar sujetos a planificación y esfuerzos de mitigación equiparables a su impacto esperado.

    Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad.

    Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.
    2
  • cerebrumvirtualis

    14 May 2013 22:45

    Mensajes: 1920

    Ubicación: Indeterminable

    cerebrumvirtualis » 3 FEB 2017  11:15

    Una lista muy interesante.
    Ojala funciona tan bién como los diez mandamientos.

    [size=1]

     

    Magic Leap es el Salvador prometido que nos liberará del escritorio

     

    El futuro de la RV es movil

     

    Inventador de una nueva especie de coche volador ultra-seguro.
    [/size]

    ________________________________________________

     


    Qualcomm Snapdragon 1090  64.000 nucleos electro-fotonicos
    Integrated Quantum Photonic RayTracing Accelerator
    Magic Leap intraocular contact lens VRD array

    0
  • MaximVR

    17 Jun 2014 19:51

    Mensajes: 1163

    Visores

    Oculus Go
    MaximVR » 3 FEB 2017  12:00

    Para el que quiera profundizar un poco más en el tema recomiendo que se pase por futureoflife.org/bai-2017/ y le pegue un vistazo a los pdf y vídeos de las conferencias. Fue gente muy importante de la industria y de la investigación puntera en Inteligencia Artificial.

     

    Por ejemplo este vídeo en el que salen Elon Musk, Stuart Russell, Ray Kurzweil, Demis Hassabis, Sam Harris, Nick Bostrom, David Chalmers, Bart Selman, y Jaan Tallinn moderados por Max Tegmark conferenciando sobre que pasaría si se consigue una Inteligencia Artificial General (AGI) a un nivel humano.

     

    Superintelligence: Science or Fiction? | Elon Musk & Other Great Minds
    1
  • cerebrumvirtualis

    14 May 2013 22:45

    Mensajes: 1920

    Ubicación: Indeterminable

    cerebrumvirtualis » 3 FEB 2017  12:25

    Que comico. Recien acabé de ver este video.  lol

    [size=1]

     

    Magic Leap es el Salvador prometido que nos liberará del escritorio

     

    El futuro de la RV es movil

     

    Inventador de una nueva especie de coche volador ultra-seguro.
    [/size]

    ________________________________________________

     


    Qualcomm Snapdragon 1090  64.000 nucleos electro-fotonicos
    Integrated Quantum Photonic RayTracing Accelerator
    Magic Leap intraocular contact lens VRD array

    0
  • cerebrumvirtualis

    14 May 2013 22:45

    Mensajes: 1920

    Ubicación: Indeterminable

    cerebrumvirtualis » 2 JUL 2017  10:11

    blogs.microsoft.com/next/2017/06/29/ais-big-leap-tiny-devices-opens-world-possibilities/

     

    Un grupo de Microsoft quiere implementar un red neuronal en un ARM Cortex 0.  lol

     

    All this compression work will only make existing machine-learning models 10 to 100 times smaller. To deploy machine-learning onto Cortex M0s, the smallest of the ARM processors – they are physically about the size of a red-pepper flake and Dekel calls them “computer dust” – the models need to be made 1,000 to 10,000 times smaller.
    “There is just no way to take a deep neural network, have it stay as accurate as it is today, and consume 10,000 less resources. You can’t do it,” said Dekel. “So, for that, we have a longer-term approach, which is to start from scratch. To start from math on the white board and invent a new set of machine-learning technologies and tools that are tailored for these resource-constrained platforms.”
    The bottom-up approach starts from the tiny end of the spectrum, where team members are focused on building a library full of training algorithms, each tuned to perform optimally for a niche set of scenarios: one for applications such as the brain implant, for example, and another to detect anomalies such as in a jet engine to predict when maintenance is required.
    The smallest device that the group has focused on is the Arduino Uno, a severely resource-constrained single-board computer with only 2 kilobytes of RAM. The algorithms train machine-learning models for tasks such as answering yes-or-no and multiple-choice questions, predicting likely target values and ranking a list of items.
    These models are inspired by cloud-based systems, but they are being re-engineered in ways that shrink the amount of data learned, reduce computational complexity and limit memory requirements yet maintain accuracy and speed.
    “Ultimately, you get predictions that are almost as accurate as (cloud-based neural networks) but now your model size is very little so you can deploy it for a few kilobytes of RAM,” explained Varma.

    Read more at blogs.microsoft.com/next/2017/06/29/ais-big-leap-tiny-devices-opens-world-possibilities/#00YKwLAubllq36xp.99

    [size=1]

     

    Magic Leap es el Salvador prometido que nos liberará del escritorio

     

    El futuro de la RV es movil

     

    Inventador de una nueva especie de coche volador ultra-seguro.
    [/size]

    ________________________________________________

     


    Qualcomm Snapdragon 1090  64.000 nucleos electro-fotonicos
    Integrated Quantum Photonic RayTracing Accelerator
    Magic Leap intraocular contact lens VRD array

    1

Usuarios navegando por este foro:

14 Anónimo