/La inteligencia artificial no es algo de confianza o no confiable
Hackernoon logo

La inteligencia artificial no es algo de confianza o no confiable


Foto de perfil del autor

@ @adrien-bookAdrien Book

Consultor de gestión / estrategia | “Escritor del año de IA de Hackernoon” | Editor de ThePourquoiPas.com

Es A.I. ¿Una revolución o una guerra? ¿Un dios o una mascota? ¿Un martillo o un clavo? Hacemos De Verdad ¿Necesitas más metáforas para describirlo? Hoy en día, A.I dicta qué información se nos presenta en las redes sociales, qué anuncios vemos, y qué precios nos ofrecen tanto dentro como fuera de línea. Un algoritmo puede técnicamente escribir y analizar libros, vencer a los humanos en casi todos los juegos concebible, hacer películas, componen canciones clásicas y ayuda magos realizar mejores trucos. Más allá de las artes, también tiene el potencial de alentar mejor Toma de decisiones, hacer diagnósticos médicose incluso resolver algunos de los problemas de la humanidad. desafíos más apremiantes. Se entrelaza con Justicia penal, Al por menor, educación, reclutamiento, cuidado de la salud, bancario, agricultura, transporte, guerra, seguro, medios de comunicación… la lista continua.

Sin embargo, a menudo estamos ocupados discutiendo los entresijos de si A.I PUEDE hacer algo, que rara vez preguntamos si DEBERÍAMOS diseñarlo.

Aquí es donde entra la ética. Tanto empresas como gobiernos se han dado cuenta de que estadísticas sobre esteroides son capaces de gran daño, y están estudiando varias formas de lidiar con las posibles consecuencias sin afectar su resultado final o su ventaja geopolítica estratégica. Han ideado docenas de “principios”, cada uno más inaplicable que el siguiente, sin llegar a un acuerdo sobre un marco básico. Que se discute guerra, automatización, vigilancia masiva, el autoritarismo es primordial; pero estas discusiones no pueden tener lugar antes principios éticos clave y líneas rojas están de acuerdo

Como tal, a continuación hay una guía “rápida” para las discusiones sobre IA y ética. Su objetivo es ayudar a democratizar las conversaciones: no necesariamente necesitamos personas más inteligentes en la mesa (y cualquier cosa que escriba no será noticia para un experto), pero nosotros HACER Necesito una mesa más grande. O más mesas. O más asientos. O algún tipo de solución de videoconferencia.

Odio las metáforas.

La ética puede significar muchas cosas diferentes

Antes de sumergirnos en la discusión contemporánea sobre ética, primero debemos entender qué es la ética. La ética tiene una definición de diccionario bastante sencilla: “principios morales que rigen el comportamiento de una persona o la realización de una actividad“.

Eso es lo más lejos que cualquiera puede llegar antes de que los contrarios como yo vengan a arruinar la diversión para todos. Ya ves, incluso si nos separamos ética normativa (el estudio de la acción ética) de sus primos lamer metaética y ética aplicada, todavía no hay una definición única de lo que es bueno / malo y / o incorrecto / correcto. En efecto, lo que es bueno puede estar mal y lo que está mal puede estar bien.

Estas son las escuelas de pensamiento que debe conocer para comprender mejor por qué las proposiciones actuales sobre ética de IA tienen poco que ver con los principios morales:

  1. Consecuencialismo; TL; DR = La mayor felicidad del mayor número es el fundamento de la moral y la legislación, también conocido como “los fines justifican los medios”. Primo cercano: utilitarismo.
  2. Deontología; TL; DR = Es nuestro deber hacer siempre lo correcto, incluso si produce consecuencias negativas. “Lo que evitas sufrir no buscas imponerlo a los demás” (Epicteto, alias, el tipo con el nombre más épico en filosofía, también un estoico) Primo cercano: Kantismo.
  3. Hedonismo; TL; DR = Maximizar la autogratificación es lo mejor que podemos hacer como personas.
  4. Intuicionismo moral; TL; DR = Es posible saber qué es ético sin el conocimiento previo de otros conceptos como el bien o el mal..
  5. Pragmatismo; TL; DR = La moral evoluciona, y las reglas deberían tener esto en cuenta.
  6. Consecuencialismo del estado; TL; DR = Lo que sea bueno para el estado es ético.
  7. Etica de la Virtud; TL; DR = Una virtud es un rasgo de carácter que se deriva de la priorización del bien contra el mal a través del conocimiento. Está separado de una acción o un sentimiento. Primo cercano: estoicismo.

Lección 1 : si una empresa o gobierno le informa sobre sus principios éticos, es su deber investigar y preguntar en qué rama ética se basan estos principios. Se puede encontrar mucha información en tales definiciones.

El “teatro de la ética” afecta a las empresas

Las empresas existen para recompensar a los accionistas. Al menos, esa es la filosofía empresarial que ha sido adoptada durante los últimos 50 años. Como tal, las empresas no tienen incentivos para hacer “bien” o “bien”, a menos que sus ganancias estén en riesgo. Todo lo que les importa, técnicamente, es que los clientes ver ellos como bien / bien. El teatro de ética es la idea de que las empresas harán todo lo posible para APARECER estar haciendo todo lo posible para comportarse éticamente, sin hacerlo, para evitar la reacción violenta de los consumidores. Una manera perfecta de hacer esto es anunciando principios y reglas grandiosos y no vinculantes de ninguna manera vinculados a la ética real, señalándolos en caso de que surja algún desafío.

A continuación se presentan dichos principios, tal como los definen algunas grandes compañías de inteligencia artificial. Esto no es exhaustivo (pero es agotador), pero proporciona una idea del lavado de ética patrocinado por la corporación. Estas reglas generalmente se dividen en 4 categorías.

Responsabilidad / Responsabilidad

Designar a un funcionario principal de ética de IA“(IBM), “Los diseñadores y desarrolladores de IA son responsable para considerar el diseño, desarrollo, procesos de decisión y resultados de IA“(IBM), “Ser explicable A la gente“(Google); “Los sistemas de IA deben tener algoritmos responsabilidad“(Microsoft)
Por qué es B-S : en primer lugar, y como muchos de los puntos a continuación, nada de esto se trata de ética per se, incluso cuando algunos de los documentos realmente tener la palabra misma en su título. En segundo lugar, en ninguna parte está escrito que los ejecutivos deberían estar responsable ante la ley de la tierra, dándoles reinado libre para hacer lo que quieran. De hecho, existen pocas leyes para reinar en A.I., pero esto es literalmente por qué tenemos ética; en ninguna parte se establece por qué normas las empresas serán responsables o responsables. ¿Deontología? ¿Consecuencialismo? Es una incógnita en este momento.

Transparencia

No escondas tu IA“(IBM), “Explica tu IA“(IBM), “La IA debe estar diseñada para que los humanos perciban, detecten y comprendan fácilmente su proceso de decisión“(IBM), “Los sistemas de IA deben ser entendibles“(Microsoft)
Por qué es B-S : No voy a entrar en muchos detalles aquí porque esto es más técnico que teórico (aquí hay una guía rápida), pero A.I es una caja negra por su propia naturaleza.. Para tener total transparencia, las empresas tendrían que poner a disposición partes de su código, algo que se ha discutido pero es (obviamente) ferozmente opuestos. La otra solución proviene del El “derecho de explicación de GDPR“, Y se concentra en la entrada más que en la salida. Dicho derecho exige que los usuarios puedan exigir los datos detrás de las decisiones algorítmicas tomadas por ellos. Esta es una gran idea, pero no se implementa en ningún lugar fuera de Europa.

Justicia / sesgo

Pon a prueba tu IA para parcialidad“(IBM), “La IA debe estar diseñada para minimizar parcialidad y promover la representación inclusiva“(IBM); “Evite crear o reforzar injusto parcialidad“(Google), “Los sistemas de IA deben tratar a todas las personas de manera justa“(Microsoft)

Por qué es B-S: un sistema creado para buscar patrones en los datos podría encontrar los patrones incorrectos. Esa es la definición más simple de sesgo A.I. Tal palabra de moda ayuda a las empresas a evitar temas difíciles, como el sexismo, el racismo o el ageismo. Dios no permita que tengan que hacerse preguntas difíciles, o que se les haga responsables por el conjunto de datos que usan. Tenemos todo el derecho (deber) de exigir qué sesgo se está abordando exactamente y cómo.

Datos y privacidad

La IA debe estar diseñada para proteger los datos del usuario y preservar el poder del usuario sobre el acceso y los usos.“(IBM); “Incorporar intimidad criterios de diseño“(Google), “Los sistemas de IA deben ser seguros y respetuosos intimidad“(Microsoft)

Por qué es B-S: Si realmente les importara, habrían implementado el estándar europeo (todos aclaman el GDPR) Ellos no han. Caso cerrado.

La ética solo se menciona dos veces en los numerosos informes que he leído:

La IA debe estar diseñada para alinearse con las normas y valores de su grupo de usuarios en mente“(IBM)
No diseñaremos ni implementaremos IA en las siguientes áreas de aplicación: tecnologías que causen o puedan causar un daño general. Cuando exista un riesgo importante de daño, procederemos solo cuando creamos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.“(Google)
Esto nos dice que IBM cree en pragmatismo (bastante justo), mientras que Google es un consecuencialista empresa. Esto es extraño, porque “no hacer el mal“, El eslogan de toda la vida de la empresa, es técnicamente deontología. Tal dicotomía destaca un descuido deslumbrante: una de las compañías más grandes del mundo está definiendo principios de IA que pueden tener un gran alcance en la sociedad y al mismo tiempo ir en contra de su cultura interna. Esto suena como un sobreanálisis hasta que te das cuenta de que ha habido muchas revueltas internas de empleados dentro de Google en los últimos meses por esta misma razón.

Es posible que haya notado que solo se mencionan tres empresas anteriormente (Google, IBM, Microsoft). Esto se debe a que las otras grandes compañías de inteligencia artificial todavía no han producido nada digno de ser seleccionado, optando por invertir en grupos de expertos que finalmente influirán en los gobiernos. Este punto destaca una falla importante común a todos los principios: ninguno ofrece que las empresas se sometan a normas exigibles. ¿Por qué entonces, las empresas se molestan con el teatro de ética? La primera razón, como se explicó anteriormente, es influenciar a los gobiernos y dirigir la conversación en la dirección “correcta” (ver a continuación las similitudes en los estándares entre las prioridades de la compañía y del gobierno). En segundo lugar, es bueno ser visto como ético por los clientes y empleados, para evitar boicots. En tercer lugar, y quizás lo más importante, hay mucho dinero por hacer al establecer un estándar: Patentes x uso universal = $$$.

Lección 2: Las empresas saben muy poco sobre ética y no tienen incentivos para tomar una posición sobre lo que es bueno o correcto. La ética corporativa es un oxímoron.

Los gobiernos están haciendo lo mejor que pueden

Hay muchos libros blancos publicados por el gobierno, pero son vagos como el infierno o vergonzosamente incompletos. Además, muchos ven a A.I a través de la lente de la competencia económica y geopolítica. Una excepción notable es la énfasis claro en la ética y la responsabilidad en la estrategia y visión de inteligencia artificial de la UE, especialmente en relación con los EE. UU. y China (ambos moralmente desacreditados). Con el fin de obtener una visión general de lo que los países creen que debería ser la ética de A.I., puse sus principios en 7 categorías, la mayoría de las cuales se parecen mucho a las destacadas por el análisis anterior de las empresas.

Tenga en cuenta que esto es simplemente una simplificación excesiva (relevante) de miles de páginas escritas por personas mucho más inteligentes y más informadas que yo. Recomiendo leer los documentos vinculados ya que proporcionan información detallada sobre los principios enumerados.

Responsabilidad / Responsabilidad

Principio de Responsabilidad por diseño“(Reino Unido); “Aquellos responsable para las diferentes fases del ciclo de vida del sistema AI debe ser identificable y explicable para los resultados de los sistemas de IA (…)“(Australia) “Todos los sistemas de IA deben ser auditables“(Noruega); “El personal del Departamento de Defensa ejercerá los niveles apropiados de juicio y cuidado, mientras permanezca responsable para el desarrollo, despliegue y uso de capacidades de IA“(DoD de EE. UU.); “el principio de responsabilidad ” (China); “Deben establecerse mecanismos para garantizar responsabilidad y responsabilidad para sistemas de IA y sus resultados (…)“(UE); “Las organizaciones y las personas que desarrollan, implementan u operan sistemas de inteligencia artificial deberían ser explicable para su correcto funcionamiento de acuerdo con los principios anteriores“(OCDE) “aquellos que diseñan e implementan el uso de IA deben proceder con responsabilidad y transparencia“(el Vaticano)

Responsable DE QUÉ ?! ¡¿A QUIEN?! ¿Cómo se evita tan sistemáticamente esta pregunta?

Transparencia

Proceso y resultado transparencia principios“(Reino Unido); “Debería haber transparencia y divulgación responsable para asegurar que las personas sepan cuándo están siendo impactadas significativamente por un sistema de IA, (…)“(Australia); “Los sistemas basados ​​en IA deben ser transparente“(Noruega); “Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera tal que el personal relevante posea una comprensión adecuada de la tecnología (…) ” (DoD de EE. UU.); “los modelos de negocio de datos, sistema e IA deben ser transparente (…)“(UE); “Debería haber transparencia y divulgación responsable de los sistemas de inteligencia artificial para garantizar que las personas entiendan los resultados basados ​​en inteligencia artificial y puedan desafiarlos“(OCDE); “en principio, los sistemas de IA deben ser explicables“(el Vaticano)
¿Qué tal si comenzamos por obligar a las empresas a revelar si son o no DE VERDAD usando A.I?

Justicia / sesgo

Principio de no discriminación discriminatoria“(Reino Unido); “Los sistemas de IA deben ser inclusivos y accesibles, y no deben involucrar o resultar en injusto discriminación contra individuos, comunidades o grupos“(Australia); “Los sistemas de IA deben facilitar la inclusión, la diversidad y la igualdad de trato.“(Noruega); “El Departamento tomará medidas deliberadas para minimizar los daños no deseados. parcialidad en capacidades de IA“(DoD de EE. UU.); “Injusto parcialidad debe evitarse, ya que podría tener múltiples implicaciones negativas, desde la marginación de los grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. (…) “(UE); “No crear o actuar de acuerdo con parcialidad, salvaguardando así la equidad y la dignidad humana “ (el Vaticano)

Como recordatorio, se puede evitar el sesgo al garantizar que la entrada de datos sea representativa de la realidad y que no refleje los prejuicios existentes de la realidad.

Datos y privacidad

Los sistemas de IA deben respetar y defender intimidad derechos y protección de Datosy garantizar la seguridad de datos“(Australia); “AI debe tomar intimidad y protección de Datos en cuenta“(Noruega); “Además de garantizar el pleno respeto de intimidad y protección de Datos, también deben garantizarse mecanismos adecuados de gobernanza de datos, teniendo en cuenta la calidad e integridad de los datos y garantizando el acceso legítimo a los datos“(UE); “Los sistemas de IA deben funcionar de forma segura y respetar el intimidad de usuarios“(el Vaticano)

Oh, ¿China y los Estados Unidos no están en esa lista? Genial, genial, genial … solo una coincidencia, estoy seguro. Estoy seguro de que también es una coincidencia que a 3 organizaciones completamente diferentes se les ocurrieran principios muy similares.

Seguridad / Seguridad / Fiabilidad

Exactitud, fiabilidad, seguridady principios de robustez“(Reino Unido); “Los sistemas de IA deberían seguramente operar de acuerdo con su propósito previsto“(Australia); “Los sistemas basados ​​en IA deben ser seguro y técnicamente robusto“(Noruega); “Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y el la seguridad, seguridad (…)“; “El Departamento diseñará e ingeniará capacidades de inteligencia artificial para cumplir con sus funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas (…)“(DoD de EE. UU.); “Los sistemas de inteligencia artificial deben ser resistentes y seguro (…)“(UE); “Los sistemas de IA deben funcionar de forma robusta, seguro y seguro manera (…) y los riesgos potenciales deben evaluarse y gestionarse continuamente“(OCDE); “Los sistemas de inteligencia artificial deben poder funcionar seguramente“(el Vaticano)

Inclusión de partes interesadas / bien social

Principio de evaluación del impacto de las partes interesadas“(Reino Unido); “Los sistemas de IA deberían beneficiar a las personas, sociedad y el medio ambiente“(Australia); “AI debe beneficiarse sociedad y el medio ambiente“(Noruega); “principio de los intereses humanos ” (China); “Los sistemas de IA deberían beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y ambientalmente simpático“(UE); “La IA debería beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar“(OCDE); “Se deben tener en cuenta las necesidades de todos los seres humanos para que todos puedan beneficiarse (…) “(el Vaticano)

Derechos

Los sistemas de IA deben respetar a los humanos derechos, diversidad y autonomía de las personas“(Australia); “Cuando un sistema de IA impacta significativamente a una persona, comunidad, grupo o entorno, debe haber un proceso oportuno para permitir que las personas desafíen el uso o la salida del sistema de IA“(Australia); “Las soluciones basadas en IA deben respetar la autonomía y el control humanos“(Noruega); “La “consistencia de derechos y responsabilidades “principio” (China); “Los sistemas de IA deben empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y fomentar sus principios fundamentales. derechos. ” (UE); “Los sistemas de IA deben diseñarse de manera que respeten el estado de derecho, humano derechos, valores democráticos y diversidad, y deben incluir salvaguardas apropiadas (…) para asegurar una sociedad justa y justa“(OCDE)

Análisis de 5 puntos

  1. Solo la UE, Noruega y Australia se ocupan de los 7 principios; Se puede decir mucho de lo que han omitido algunos países. Esta falta de consenso también es preocupante porque una entidad que decide entre varias pautas internacionales, la política nacional de su país de origen y las recomendaciones de compañías y organizaciones sin fines de lucro podría terminar sin hacer nada.
  2. No hay una lista de empresas principales fuera de estos 7 puntos, y rara vez se alejan unos de otros. Esto pone de manifiesto un riesgo muy real de pensamiento grupal (algo que sería beneficioso para el sector privado). Por ejemplo, en ninguna parte está el derecho a la autodeterminación mencionado, cuando A.I podría usarse fácilmente para empujar personas de una forma u otra (por ejemplo, durante una elección)
  3. Las líneas rojas están vergonzosamente ausentes: ningún país se ha prohibido ciertos usos de IA, y ninguno de los principios es legalmente vinculante. Para su información, la regulación fuerte se ve así:
  4. Las definiciones técnicas están completamente ausentes de la discusión.. Como son relevantes KPI que podría medir estos principios. ¿A quién le importa si algunas cosas están técnicamente fuera de alcance actualmente? Afirmar eso significa malinterpretar la definición misma de estrategia (también, amenazar con multar a las empresas y encontrarán soluciones técnicas bastante rápidas).
  5. los falta de pautas éticas No está claro al principio. Tampoco son su necesidad, no sea que preguntemos “¿Qué pasa si un principio va en contra de otro?“. ¿Están clasificados?? ¿Hay órdenes de importancia? ¿Qué sucede si los derechos de privacidad anteriores son beneficiosos para la sociedad? Cuando comenzamos a tratar objetivos múltiples, a menudo competitivos, o tratamos de dar cuenta de los intangibles como “libertad” y “bienestar”, no existe una solución matemática satisfactoria. Aquí es donde sería útil una filosofía ética clara: si consecuencialismo estatal tiene prioridad (como suele ser el caso en China), esto al menos nos da una pista de lo que se priorizará (Asimov tres leyes de robótica fueron bastante buenos en esto)

Lección 3 : Los gobiernos van un paso más allá que las empresas al establecer principios relevantes. Sin embargo, todavía carecen del coraje de sus principios, así como de los conocimientos técnicos para hacer que estos principios sean exigibles.

La ética es fácil, pero el coraje no lo es

Ahora que hemos establecido los conceptos básicos de lo que la ética tiene para ofrecer (no mucho a su valor nominal), y que hemos analizado varios intentos de empresas y gobiernos por igual, a continuación se presentan algunas recomendaciones que se basan no solo en la ética, sino también en valor con respecto a los temas GRANDES (guerra, política, autos autónomos, justicia …).
menciono valor porque esto es lo que falta en el discurso actual de A.I. Los principios a continuación probablemente ya se han pensado antes, pero probablemente fueron descartados debido a lo que implican (pérdida de competitividad, ventaja estratégica, puntos geniales …). No arriesgo nada al mencionarlos, porque no ejerzo ningún poder real en esta conversación; Es posible que no tenga el mismo discurso si representara a una persona / empresa.

Principio de racionalidad

Principio de ranking

Supongamos que el principio anterior se aplica en todo el mundo (¡decir ah!) ¿Cómo pueden las empresas lidiar con los derechos fundamentales en competencia al crear un algoritmo? Por ejemplo, ¿podemos renunciar a los artículos 9 y 12 para hacer cumplir mejor el artículo 5? ¿Podemos producir una IA que rastree los canales de comunicación para encontrar una posible actividad criminal? Esta pregunta es la razón por la que necesitamos una posición ética, que ayudaría a desarrollar un rango estable de valores, ética y derechos, en el que algunos se destacan por encima de otros. Toma lo infame Problema de carro, por ejemplo, y aplicarlo a automóviles autónomos. Dada la opción, ¿debería un automóvil autónomo priorizar salvar a dos peatones sobre un pasajero? ¿Qué pasa si el pasajero es un jefe de estado? ¿Qué pasa si los peatones son criminales? Elegir una escuela de pensamiento, por difícil que sea, ayudaría a crear algoritmos en línea con nuestras creencias (equipo deontología FTW).

Principio de ambivalencia

El ejemplo anterior no es aleatorio: el estudio más grande sobre preferencia moral se inició en 2014, alentando a los usuarios de todo el mundo a responder a una serie de variaciones de la “problema de carro“. Los resultados, aunque esperados, son claros: diferentes culturas creen en diferentes cosas cuando se trata de ética. Japón y China, por ejemplo, tienen menos probabilidades de dañar a los ancianos. Los países más pobres son más tolerantes con los observadores de la ley. Los países individualistas generalmente prefieren ahorrar más vidas. La ética es dinámica, pero la codificación es estática. Es por eso que nunca se debe crear un algoritmo para tomar decisiones para más de una población. A mi modo de ver, se deben hacer al menos tres conjuntos basados ​​en diferentes visiones del mundo: oeste, este y sur.

En pocas palabras, si me subo a un automóvil autónomo chino, me gustaría poder elegir un estándar occidental en caso de accidente.

Principio de responsabilidad

Este principio puede parecer blasfemo para muchos defensores del libre mercado, planteados como en países donde los grupos de tabaco no causan cáncer, las destilerías no causan alcoholismo, las armas no causan tiroteos en las escuelas y las compañías farmacéuticas no causan sobredosis. Silicon Valley ha entendido esto, y su excusa cuando sus productos causan daños (desempleo, prejuicios, muertes …) es decir que sus tecnologías tienen un valor neutral y que no tienen poder para influir en la naturaleza de su implementación. Esa es solo una salida fácil. Los algoritmos que se comportan de manera inesperada son ahora una realidad, y al igual que los fabricantes de automóviles deben estar al tanto de las emisiones y las empresas europeas deben proteger los datos de sus clientes, ejecutivos tecnológicos (a diferencia de los científicos, cuyos muy razón de ser está empujando las barreras, y así debería ser) debe seguir de cerca el comportamiento de un algoritmo a medida que cambia con el tiempo y los contextos, y cuando sea necesario, mitigar el comportamiento malicioso, para que no enfrenten una multa considerable o un tiempo en prisión.

¿No puedes manejarlo? No lo hagas verde.

Si su firma está en la parte inferior de la página, usted es responsable ante la ley.

Principal de Neto Positivo

¿Realmente vale la pena? Actualmente, incluso el algoritmo más simple no es ético por su propia naturaleza: minería, fundición, logística, caja negra sobre caja negra de secretos comerciales, recursos del centro de datos, esclavitud moderna, e-waste montañas de basura en Ghana… nada de esto es sostenible, aunque el Reino Unido, Australia y la UE tienen el medio ambiente nombrado en sus grandes principios. ¿Realmente vale la pena por pequeños placeres y simplificaciones? Una vez, solo una vez, sería bueno tener un poco de cordura en la discusión.

Y por cordura me refiero a poder ver toda la maldita cadena de suministro o su algoritmo no está entrando en producción.

Los problemas medioambientales ya no pueden quedar en segundo plano, incluso cuando se habla de algo tan aparentemente inocente como el mundo digital.

Conclusión

Frente a una tecnología limitada y una gran cantidad de usos potenciales, los beneficios de A.I superan claramente los riesgos. Sin embargo, esta no es razón para no tener una conversación sobre su implementación, antes de que los robots comiencen a hablar por nosotros (si, esto es una hipérbole, demandame)

Déjame decirlo en voz alta para la gente de atrás: A.I no es algo confiable o no confiable. Es simplemente una herramienta hecha por el hombre que se “alimenta” de datos para automatizar ciertas tareas, a escala. ¿Confías en tu lavadora? Su calculadora (Sí, yo tampoco. Matemáticas es magia negra)? Es demasiado fácil asumir la agencia de algo que no tiene ninguno. No puedo ser bueno o malo. Los humanos son buenos o malos (y muy a menudo simultáneamente ambos). Al final del día, A.I simplemente tiene un espejo oscuro para la sociedad, sus triunfos y sus desigualdades. Esto, sobre todo, es incómodo. Es incómodo porque seguimos descubriendo que somos los mejores.

A.I La ética no existe.

Déjame decirlo en voz alta para la gente de atrás: Los algoritmos tienen propósitos muy específicos. No pueden desviarse de esos propósitos. Lo que importa es si una empresa decide o no que este propósito es digno de ser automatizado dentro de una caja negra. Como tal, la cuestión de la ética de A.I debe reformularse como “¿confiamos (los nombres de las empresas aquí) tienen los mejores intereses en mente?“Y, en caso afirmativo,”¿Confiamos en que los programadores de la compañía implementen esa visión sin fallas mientras toman en cuenta posibles fallas de datos?“Eso es más complicado, ¿no? Pero más realista.

A.I La ética no existe.

Déjame decirlo en voz alta para la gente de atrás: Las vagas listas de verificación y los principios, los oficiales de ética impotentes y los consejos asesores sin dientes están ahí para salvar la cara, evitar cambios y evadir responsabilidades. Si sale con una lección de este artículo, es esta:

A.I La ética no existe.

Este artículo fue escrito originalmente para Honeypot.io, La plataforma de trabajo centrada en los desarrolladores de Europa.

Comentarios

Etiquetas

La pancarta de noonificación

¡Suscríbase para obtener su resumen diario de las mejores historias tecnológicas!





Source link