Vitalik advierte: ¡El alto riesgo de la IA superinteligente necesita precaución ahora!

Puntos claves:

  • La IA superinteligente es muy arriesgada y el desarrollo debe ser cauteloso.
  • Promueve la IA de hardware de consumo para evitar monopolios corporativos y militares.
  • Admite la categorización de la IA en “pequeña” y “grande” para evitar una regulación excesiva de todos los proyectos de IA.
Vitalik Buteri expresó recientemente en X que estaba profundamente preocupado por el rápido desarrollo de la IA superinteligente y lo que eso significa para la sociedad. Hizo hincapié en los altos riesgos asociados con la IA superinteligente e instó a adoptar un enfoque cauteloso para impulsarla.
Vitalik advierte: ¡El alto riesgo de la IA superinteligente necesita precaución ahora!

Vitalik Buterin destacó los riesgos de acelerar el desarrollo de una IA superinteligente y pidió resistencia contra tales esfuerzos. Él particularmente criticado la idea de construir una granja de servidores de 7 billones de dólares dedicada a la IA superinteligente, argumentando que proyectos tan centralizados y gigantescos podrían venir con una enorme concentración de poder que controlaría aspectos importantes de pensamiento humano y sociedad.

Lee mas: Aplicaciones ETF de Ethereum: ¿Existe potencial para nuevos avances?

El plan de Buterin para prevenir los monopolios de la IA

¡El alto riesgo de la IA superinteligente requiere precaución ahora!

Buterin afirmó que el crecimiento de una economía sólida ecosistema modelo de código abierto era el camino a seguir. Dijo que serviría como una buena contramedida para evitar que el valor de la IA se concentre demasiado en manos de unas pocas entidades corporativas o militares. Los modelos de código abierto plantean menores riesgos en comparación con los enfoques monopolísticos, y es menos probable que estos últimos conduzcan a situaciones en las que unos pocos actores tengan un control desproporcionado sobre Tecnologías de IA y, por extensión, la cognición humana.

El CEO de Ethereum entendió la razón detrás de categorizar la IA en categorías "pequeñas" y "grandes". Apoyó eximir a la IA pequeña de las principales regulaciones, pero enfatizó la supervisión de la IA grande. Sin embargo, temía que muchas de las propuestas actuales eventualmente se expandieran para incluir todos los desarrollos de IA. Al hacerlo, toda la IA sería considerada “grande” y sujeta al mismo nivel de escrutinio. Según él, esto sofocaría la innovación y crearía obstáculos para proyectos de IA más pequeños y menos riesgosos.

AVISO DE RESPONSABILIDAD: La información contenida en este sitio web se proporciona como comentario general del mercado y no constituye asesoramiento de inversión. Le recomendamos que haga su propia investigación antes de invertir.

Vitalik advierte: ¡El alto riesgo de la IA superinteligente necesita precaución ahora!

Puntos claves:

  • La IA superinteligente es muy arriesgada y el desarrollo debe ser cauteloso.
  • Promueve la IA de hardware de consumo para evitar monopolios corporativos y militares.
  • Admite la categorización de la IA en “pequeña” y “grande” para evitar una regulación excesiva de todos los proyectos de IA.
Vitalik Buteri expresó recientemente en X que estaba profundamente preocupado por el rápido desarrollo de la IA superinteligente y lo que eso significa para la sociedad. Hizo hincapié en los altos riesgos asociados con la IA superinteligente e instó a adoptar un enfoque cauteloso para impulsarla.
Vitalik advierte: ¡El alto riesgo de la IA superinteligente necesita precaución ahora!

Vitalik Buterin destacó los riesgos de acelerar el desarrollo de una IA superinteligente y pidió resistencia contra tales esfuerzos. Él particularmente criticado la idea de construir una granja de servidores de 7 billones de dólares dedicada a la IA superinteligente, argumentando que proyectos tan centralizados y gigantescos podrían venir con una enorme concentración de poder que controlaría aspectos importantes de pensamiento humano y sociedad.

Lee mas: Aplicaciones ETF de Ethereum: ¿Existe potencial para nuevos avances?

El plan de Buterin para prevenir los monopolios de la IA

¡El alto riesgo de la IA superinteligente requiere precaución ahora!

Buterin afirmó que el crecimiento de una economía sólida ecosistema modelo de código abierto era el camino a seguir. Dijo que serviría como una buena contramedida para evitar que el valor de la IA se concentre demasiado en manos de unas pocas entidades corporativas o militares. Los modelos de código abierto plantean menores riesgos en comparación con los enfoques monopolísticos, y es menos probable que estos últimos conduzcan a situaciones en las que unos pocos actores tengan un control desproporcionado sobre Tecnologías de IA y, por extensión, la cognición humana.

El CEO de Ethereum entendió la razón detrás de categorizar la IA en categorías "pequeñas" y "grandes". Apoyó eximir a la IA pequeña de las principales regulaciones, pero enfatizó la supervisión de la IA grande. Sin embargo, temía que muchas de las propuestas actuales eventualmente se expandieran para incluir todos los desarrollos de IA. Al hacerlo, toda la IA sería considerada “grande” y sujeta al mismo nivel de escrutinio. Según él, esto sofocaría la innovación y crearía obstáculos para proyectos de IA más pequeños y menos riesgosos.

AVISO DE RESPONSABILIDAD: La información contenida en este sitio web se proporciona como comentario general del mercado y no constituye asesoramiento de inversión. Le recomendamos que haga su propia investigación antes de invertir.
Visitado 66 veces, 1 visita(s) hoy