Actualités

Nous avons appris à améliorer l’IA, mais cela n’a pas d’importance, maintenant c’est une peur! .

J’ai une grande partie de ma vie de carrière Technologie Et Coût dans le monde de la transformationNe créez jamais de paramètres qui peuvent fonctionner en grande quantité. Ceux qui ne peuvent pas faire le travail ne se sont jamais arrêtés. Travaillez sur les salles de bataille la nuit, et quand tout cela a été fait, une chose était assise en moi, et maintenant la même chose est à nouveau dérangée. Je pense Nous apprenons aux machines à prendre des décisions, et le courage de prendre des responsabilités ne reste plus en nous.

Nous ne faisons pas cela parce que nous sommes mauvais ou paresseux, mais dans la race de la vitesse, de la taille et des performances numériques, nous avons progressivement marginalisé les résultats réalisés avec notre véritable pensée. Maintenant, l’IA a commencé à décider qui obtient un prêt, qui va rechercher des soins de santé et décide qui, libération conditionnelle ou même citoyenneté. Juste, le problème commence vraiment à partir de cela.

Mon intention est le jour où la technologie est brisée

Un jour, je me souviens bien. J’ai mené la valeur du système basé sur l’IA. Ces organisations sont utilisées pour «essayer» pour «essayer» les cas de sensibilisation des politiques au sein des entreprises, ce qui signifie que tout cas est grave et qu’il est à faible risque. Le but était bon, réduisant les perturbations, attrapant rapidement des cas graves et réduit le fardeau des humains. Le pilote a fait le plus performant, peu coûteux, rapide et «équilibré». L’avance de conformité était heureuse. Les tableaux de bord étaient verts. Tout est parfait.

… mais quelque chose n’allait pas de l’intérieur

La logique de l’organisation, c’est-à-dire la vraie raison de l’affaire est le cas grave, ce qui est plus léger. En fait, je ne comprends pas tout cela. Il est une variable proxy basée sur les données, et maintenant personne ne peut comprendre. Par exemple, vendredi après-midi, si un employé junior signale un cas, il est plus susceptible de faire moins de profit. Cela ne se produit pas délibéré, c’est la méthode de formation des données.

Nous avons amélioré la mauvaise chose et personne ne sait parce que les résultats sont connus. J’ai arrêté le déploiement. Le modèle a été rétracté. Perdu trois semaines. Mais nous avons rendu notre conscience. Ce jour-là, j’ai cessé d’attirer la technologie et j’ai commencé à m’inquiéter de ce que nous avons permis de changer tranquillement.

La moralité de l’IA n’est pas seulement un modèle

Nous appelons ces organisations «intelligentes», mais elles n’ont pas de sagesse d’hommes. Ils ne se soucient pas de la justice ou des équipes et se battent avec de vagues caractéristiques. L’IA reconnaît simplement la forme. Mais d’où viennent ces formes? De nos anciennes données. Ces données ont été en fait cassées, latérales à côté et pleine de déséquilibres. Nous mettons les mêmes erreurs dans la machine et espérons ensuite qu’il prendra les meilleures décisions des humains. La vérité est que nous avons augmenté plus d’erreurs.

J’ai vu dans le monde des services financiers comment de bons échantillons peuvent faire des résultats dangereux. Ce système de scores de crédit Comment des personnes sous la février dans les zones pauvres. Les outils d’embauche accordent plus d’attention aux habitants de certaines universités ou villes. Les mécanismes de fraude sont piégés par les utilisateurs et sa méthode numérique n’est pas comme la «majorité».

Ces résultats ne viennent pas avec de mauvaises fins. Ce sont le résultat de l’optimisation sans simplement réfléchir. Mais comme les chiffres étaient bons, personne n’a pas montré le vrai mal tant que personne n’a osé poser de questions.

La précision et les mooriti sont différents!

Nous devons nous rappeler que la précision et la moralité ne sont pas les mêmes. Peu à peu, notre responsabilité morale se termine. Je ne pense pas que l’IA est une mauvaise chose, mais cette responsabilité morale favorise la dangereuse habitude de mettre les autres. En fait, c’est le plus grand risque. Considérez ceci.

Étape 1: Le groupe crée un système pour que le résultat difficile soit plus facile.
Étape 2: Un partenaire dit: «Si le modèle est recommandé, nous sommes d’accord».
Étape 3: Le modèle recommande un étrange / soupçon, mais personne ne veut être un obstacle, il n’y a donc pas de questions.
Étape 4: Les mêmes recommandations sont mises en œuvre (expédition) sans examen en profondeur.
Étape 5: Ensuite, la responsabilité est demandée, puis: «Le modèle est censé le dire».

C’est ennuyeux d’entendre. Mais j’ai vu comment les décisions entières de l’industrie ont été prises dans le nombre d’une telle propagation, et elle n’a pas été correctement comprise. Pourquoi? Parce que personne ne veut assumer la responsabilité de tirer la ligne.

Pourquoi la réglementation ne suffit pas

De nos jours, la demande de réglementation de l’IA augmente, oui, c’est très important. Mais les règles et les règles ne peuvent pas être sauvées de la maladie que les résultats sont compris, où l’absence de localisation de l’humanité dans le système, il y a une optimisation, mais pas de l’éthique. Ethix n’est pas une liste de contrôle. C’est une habitude. Il y a une stagnation. Même si tout semble correct, il est courageux que vous puissiez poser des questions.

On le trouve dans la conversation du couloir. «Pourquoi utilisons-nous cette variable? Le produit apparaît au premier plan, qui demande à augmenter la chronologie, qui est le moment de réfléchir. Même dans l’administrateur, qui dit que nous supporterons la vitesse de la vitesse, mais ils ne commenceront rien de bien.

… Nous devons faire tout cela depuis le début. Ce n’est pas lorsque beaucoup est discuté dans les médias. Nous devons réfléchir au type de leadership dont nous avons besoin. J’ai oublié le nombre de panneaux d’IA que les gens disent «nous avons besoin de structures éthiques».

Nous avons des structures. Nous avons maintenant besoin d’une entreprise de protocole. Ils ne viennent d’aucun outil. Ils viennent de notre culture intérieure. Les gens viennent de suivre ces personnes dans un point de vue différent, et ceux qui ont le courage de le dire et de dire: «Nous ne devons pas encore le démarrer».

Les meilleurs leaders améliorent non seulement les Outcom, mais ont également une place pour des questions inconfortables, car le verdict vient de là et l’humanité commence l’humanité.

Si la dernière chose est nécessaire, il est nécessaire de l’ajouter tôt. L’IA aura un impact plus important sur nos vies autant que nous ne le pensons pas. Ce n’est pas un battage médiatique, la vérité. Mais je dis clairement que si vous n’ajoutez pas de discipline lors de la création d’un système, vous le laissez délibérément. En fait, il n’y a rien dans la technologie. Une valeur est cachée dans chaque code fiscal. Un commerce dans chaque fonctionnalité. Chaque décision vous montre ou vous avez hérité d’une vision du monde. La vraie question n’est pas de savoir si nous pouvons créer un «système intelligent». Nous les avons créés.

La question est que nous avons plus de courage et d’humilité, et nous devons être humains lors de leur création. Parce que le jour où nous devons faire ça? «Partez pour écouter et faire cela? «Il a commencé à entendre, et le même jour, nous avons déjà confié notre responsabilité à la machine.

.

—- le résultat

Source link

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page