Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
AI, das Gesetz und unsere Zukunft
{{{sourceTextContent.subTitle}}}
Wissenschaftler und Entscheidungsträger liefen an MIT am Dienstag zusammen, um eins der härtesten Probleme in der künstlichen Intelligenz zu besprechen: Wie man sie regelt.
{{{sourceTextContent.description}}}
Der erste Politik-Kongreß MITs AI kennzeichnete sieben Podiumsdiskussionen, die über einer Vielzahl von AI-Anwendungen sich ausbreiten, und 25 Sprecher — einschließlich zwei ehemalige personalchefs des Weißen Hauses, ehemalige Kabinettschefs, Staatssicherheits- und Verteidigungspolitikleiter, Industrie- und Zivilgesellschaftsführer und Führungsforscher.
Ihr geteilter Fokus: wie man die Gelegenheiten vorspannt, die AI schafft — über Bereichen einschließlich Transport und Sicherheit, Medizin, Arbeit, Strafjustiz und Staatssicherheit — bei Herausforderungen, einschließlich das Potenzial für Sozialneigung, den Bedarf an der Transparenz und die misteps kräftig konfrontieren, die AI-Innovation bei der Verschlimmerung von Sozialproblemen in den Vereinigten Staaten festklemmen konnten und auf der ganzen Welt.
„Wenn es um AI in den Bereichen des öffentlichen Vertrauens geht, ist die Ära schnell von sich bewegen und von Brechen alles vorbei,“ sagte R. David Edelman, Direktor des Projektes auf Technologie, der Wirtschaft und Staatssicherheit (ZEHN) an der MIT-Internet-Politik-Forschungs-Initiative (IPRI) und einem ehemaligen speziellen Assistenten zum Präsidenten für Wirtschafts- und Technologiepolitik im Weißen Haus Obamas.
Addierter Edelman: „Es gibt einfach zu viel auf dem Spiel für uns alle zum nicht Haben ein Sagen.“
Daniel Weitzner, Gründungsdirektor von IPRI und ein Hauptforschungswissenschaftler am MIT-Informatik-und künstliche Intelligenz-Labor (CSAIL), sagten, dass ein Schlüsselziel des Dialogs war, Politikanalytikern zu helfen, hinsichtlich ihrer Fähigkeit überzeugt sich zu fühlen, die Effekte von AI auf Gesellschaft aktiv zu formen.
„Ich hoffe, dass die Entscheidungsträger weg mit einer klaren Richtung kommen, die AI-Technologie nicht etwas unbeweglicher Gegenstand ist, aber eher, dass die rechte Interaktion zwischen Informatik, Regierung und Gesellschaft im Großen und Ganzen hilft, die Entwicklung der neuen Technologie zu formen, um den Bedarf der Gesellschaft anzusprechen,“ sagte Weitzner am Ende des Ereignisses.
Der Politik-Kongreß MITs AI wurde durch IPRI, neben einer zweitägigen Sitzung des Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die in Paris ansässige zwischenstaatliche Vereinigung organisiert, die AI-Politikempfehlungen für 35 Länder auf der ganzen Welt entwickelt. Als Teil des Ereignisses nahmen OECD-Experten an einer Halbtags-, praktischen Schulungseinheit bei der Lernfähigkeit einer Maschine teil, da sie ein neurales Netz unter Führung Hal Abelsons, die Klasse von Professor 1922 der Informatik und der Technik an MIT ausbildeten und prüften.
Dienstages Forum fing auch mit einer Zündkapsel auf dem hochmodernen in AI von Antonio Torralba, von einem Professor in CSAIL und in der Abteilung der Elektrotechnik und der Informatik (EECS) und von Direktor der MIT-Suche nach Intelligenz an. Merkend, dass „es so viele Sachen gibt, die an“ in AI gehen, witzelte Torralba: „Es ist sehr schwierig, zu kennen, was die Zukunft ist, aber es ist sogar härter, zu kennen, was das Geschenk ist.“
Eine neue „Verpflichtung, zum von ethischen Fragen anzusprechen“
Dienstages Ereignis, mit ausgerichtet durch das IPRI und die MIT-Suche nach Intelligenz, wurde gehalten, zu einer Zeit als AI eine bedeutende Menge Medieninteresse erhält — und ein beispielloses Niveau der Finanzinvestition und der Institutionsunterstützung.
Seinerseits, MIT ankündigte im Oktober 2018 dass es das MIT Stephen A. Schwarzman College der Datenverarbeitung gründete, gestützt durch ein Geschenk $350 Million von Stephen Schwarzman, der als interdisziplinäre Verbindung der Forschung und Ausbildung in der Informatik, Daten Wissenschaft, AI dient, und in Verbindung stehende Felder. Das College spricht auch Politik und ethische Fragen in Bezug auf die Datenverarbeitung an.
„Hier an MIT, sind wir an einem einzigartigen Moment mit der bevorstehenden Produkteinführung des neuen Colleges MITs Schwarzman der Datenverarbeitung,“ Weitzner merkten. „Die Verpflichtung, zum von Politik und von ethischen Fragen in Datenverarbeitungswillensergebnis in neuer AI-Forschung und im Lehrplan anzusprechen, um Studenten auszubilden, um neue Technologie zu entwickeln, um den Bedarf der Gesellschaft zu erfüllen.“
Andere Institutionen gehen eine erweiterte Verpflichtung zu AI auch ein — einschließlich die OECD.
„Sachen entwickeln ziemlich schnell,“ sagte Andrew Wyckoff, Direktor für Wissenschaft, Technologie und Innovation an der OECD. „Wir müssen anfangen zu versuchen, dem zuvorzukommen.“
Wyckoff addierte, dass AI eine Politikpriorität „der Spitze drei“ für die OECD im Jahre 2019-2020 war, und sagte, dass die Organisation ein „Politikobservatorium“ bildete, um realistische Einschätzungen Auswirkung AIS zu produzieren, einschließlich die Frage der Automatisierung Jobs ersetzend.
„Es gibt viel Furcht dort draussen über [Arbeitskräfte] verlegt werden,“ sagte Wyckoff. „Wir müssen dieses betrachten und sehen, was Wirklichkeit, ist gegen, was ist Furcht.“
Ein angemessener Betrag dieser Idee hält mehr von der Furcht auf, als Wirklichkeit, Erik Brynjolfsson, Direktor der MIT-Initiative auf der Digital-Wirtschaft und einen Professor am MIT Sloan School des Managements, während einer Podiumsdiskussion auf Herstellung und Arbeit sagte.
Verglichen mit der Strecke der Fähigkeiten benötigt in den meisten Jobs, „heute, welche Lernfähigkeit einer Maschine tun kann, ist viel schmaler,“ sagte Brynjolfsson. „Ich denke, dass das das status quo sein wird für einige Jahre.“
Brynjolfsson merkte, dass eine seine eigene Forschung auf dem Gebiet eines Themas, die vollständige Auswahl von den spezifischen Aufgaben auswertend, die in einer großen Vielfalt von Jobs verwendet werden, zeigt, dass Automatisierung neigt, einiges aber nicht alle jene Aufgaben zu ersetzen.
„In keinem einzelnen jener Besetzungen die Lernfähigkeit einer Maschine, die Tabelle“ von Aufgaben laufen zu lassen, sagte Brynjolfsson. „Sie nicht gerade werden in der Lage sein, eine Maschine sehr häufig anzuschließen.“ Jedoch merkte er, die Tatsache, der Computer bestimmter Aufgaben sich bemächtigen können bedeutet, dass „Neuerfindung und Neukonstruktion“ für viele Jobs notwendig sind. Noch wie Brynjolfsson hervorhob, „dieser Prozess wird heraus in Jahren spielen, wenn nicht Jahrzehnte.“
Eine mannigfaltige Politiklandschaft
Eine bedeutende Idee unterstrich am Ereignis ist, dass AI-Entscheidungsfindung zu Industrie zur Industrie ziemlich unterschiedlich ausbreiten könnte. Für autonome Fahrzeuge — möglicherweise die breit-angekündigte Anwendung von AI — US-Bundestaaten haben bedeutende maßgebende Energie, und Gesetze konnten über Staatsgrenzen groß schwanken.
In einer Podiumsdiskussion auf AI und Transport, erwähnten Daniela Rus, der Andrew und Erna Viterbi Professor der Elektrotechnik und der Informatik und der Direktor von CSAIL, dass sie sieht Transport „als eins der Hauptziele und eine der Hauptsachen der Annahme für AI-Technologien in der anwesenden und nahen Zukunft.“
Rus schlug vor, dass der Gebrauch der autonomen Fahrzeuge in irgendeiner langsamer, weniger-komplexer Umwelt innerhalb fünf Jahre oder so möglich wäre, aber sie machte auch klar, dass autonome Fahrzeuge weniger gut in den schwierigeren, Hochgeschwindigkeitssituationen und im Kampf im schlechten Wetter gehen.
Teils aus jenen Gründen, stellen viele autonomen Fahrzeuge dar, um Systeme zu kennzeichnen, in denen Fahrer die Kontrollen übernehmen können. Aber, während Rus merkte, dass „von der Fähigkeit der Leute, blitzschnell zu übernehmen abhängt,“ während zeigen Studien z.Z., dass es Fahrern ungefähr neun Sekunden dauert, um Steuerung ihrer Fahrzeuge anzunehmen.
Die Transportpodiumsdiskussion berührte auch sich auf dem Gebrauch von AI in den See- und Luftsystemen. Im letzteren Fall „Sie können nicht die Augen Ihres AI-Kopiloten untersuchen und ihr Vertrauen beurteilen,“ sagte John-Paul Clarke, den Vizepräsidenten von strategischen Technologien bei United Technologies, betreffend die komplexe Dynamik von Mensch-Maschine-Schnittstellen.
In anderen Industrien beziehen grundlegende AI-Herausforderungen Zugang zu den Daten, zu einem Punkt, der von Torralba und von Regina Barzilay hervorgehoben werden, zu einem MITprofessor in CSAIL und in EECS mit ein. Während einer Platte auf Gesundheitswesen, stellte sich Barzilay auf einem Aspekt ihrer Forschung dar, die die Lernfähigkeit einer Maschine verwendet, Mammogrammergebnisse für bessere Früherkennung von Krebs zu analysieren. In Barzilays Ansicht umfassen technische Schlüsselherausforderungen in ihrer Arbeit, die durch AI-Politik adressiert werden könnte, Zugang zu mehr Daten und zur Prüfung über Bevölkerungen — das helfen kann, automatisierte Entdeckungswerkzeuge zu verfeinern.
Die Angelegenheit von, wie man gut Zugang zu den geduldigen Daten führte jedoch zu einige lebhafte folgende Austausch schafft. Tom Price, ehemaliger Gesundheitsminister und menschliche Services in der Trumpfverwaltung, schlugen vor, dass „de-identifizierte Daten absolut der Schlüssel sind,“, zum des Fortschritts zu fördern, während einige MIT-Forscher im sudience vorschlugen, dass es praktisch unmöglich ist, total anonyme geduldige Daten zu schaffen.
Jason Furman, ein Professor der Praxis von Wirtschaftspolitik im Harvard Kennedy School und ein ehemaliger Stuhl des Sachverständigenrats für Wirtschaftsfragen im Weißen Haus Obamas, sprachen das Interesse an, dass Versicherer den Leuten Abdeckung verweigern würden, die auf AI-erzeugten Vorhersagen basierten, über die Leute höchstwahrscheinlich Krankheiten später im Leben entwickeln würden. Furman schlug vor, dass die beste Lösung für dieses außerhalb des AI-Gebietes liegt: die Ablehnung von Sorgfalt verhindern basiert auf bereits bestehenden Bedingungen, ein Element der erschwinglichen Sorgfalt-Tat.
Aber Gesamt, fügte Furman, „das wirkliche Problem mit künstlicher Intelligenz ist wir haben nicht genug von ihr.“ hinzu
Für sein Teil schlug Weitzner vor, dass, anstelle der tadellos anonymen medizinischen Daten, „wir über, was die zulässigen Gebräuche und der unzulässige Gebrauch“ von Daten sind, seit „dem richtigen Weg des Ermöglichens der Innovation uns einig sein sollten und Privatleben zu nehmen ist Verantwortlichkeit ernst ernst nehmen.“
Allgemeine Verantwortlichkeit
In der Tat setzte die Verantwortlichkeit von Organisationen einen anderen Prüfstein von Dienstages Diskussionen, besonders in einem Gremium auf Strafverfolgung und AI fest.
„Regierung, die Wesen sein müssen transparent über, was sie in Bezug auf AI tun,“ sagte Jim Baker-, Harvard Law School-Lektor und ehemaligen Chefsyndikus des FBI. „Ich denke, der liegt auf der Hand.“
Carol Rose, Geschäftsführer des amerikanischen des Bürgerrecht-das Massachusetts-Kapitels Verbands, warnte gegen Überbeanspruchung von AI-Werkzeugen in der Strafverfolgung
„Ich denke, dass AI ungeheures Versprechen hat, aber es wirklich abhängt, wenn die Datenwissenschaftler und das Strafverfolgungszusammenarbeitung,“ sagte Rose und vorschlägt, dass ein bestimmter Betrag „Kramwissenschaft“ bereits seine Weise in die Werkzeuge gemacht hatte, die zu den Polizeibeamten vermarktet wurden. Rose zitierte auch Joy Buolamwini MIT Media Labs als Führer in der Bewertung solcher AI-Werkzeuge; Buolamwini gründete die algorithmische Gerechtigkeits-Liga, eine Gruppe, die den Gebrauch von Gesichtserkennungstechnologien nachforscht.
„Manchmal sorge mich ich uns habe einen AI-Hammer, der nach einem Nagel sucht,“ sagte Rose.
Gesagtes alles, wie Edelman in den abschließenden Bemerkungen merkte, die Politikwelt besteht „aus sehr verschiedenen Gesetzen,“ und Entscheidungsträger müssen sich, in welchem Ausmaß allgemeine Regelungen bedeutungsvoll sind, oder ob fragen AI-politische Streitpunkte gut auf spezifischere Arten angesprochen werden — ob in der Medizin, in der Strafjustiz oder im Transport.
„Unser Ziel ist, die Verbindung unter diesen Feldern zu sehen… aber, wie wir tun, ließ uns auch uns fragen, ob ‚AI-Regierungsgewalt‘ ist der rechte Rahmen an gesamt- es möglicherweise gerade wäre, dass in naher Zukunft, alle Regierungsgewaltabkommen mit AI-Fragen auf die eine oder andere Weise“ sagte Edelman.
Weitzner schloss die Konferenz mit einem Anruf, damit Regierungen Verpflichtung mit den technischen Gemeinschaften der Informatik und der künstlichen Intelligenz fortsetzen. „Die Technologien, die die Zukunft der Welt formen, werden heute entwickelt. Wir haben die Gelegenheit um sicher zu sein, dass sie den Bedarf der Gesellschaft entsprechen, wenn wir aufrechterhalten diesen Dialog als Weise des Informierens des technischen Entwurfs und der fachübergreifenden Forschung.“