Ihre E-Mail wurde erfolgreich gesendet. Bitte prüfen Sie Ihren Maileingang.

Leider ist ein Fehler beim E-Mail-Versand aufgetreten. Bitte versuchen Sie es erneut.

Vorgang fortführen?

Exportieren
Filter
Datenlieferant
Materialart
Sprache
Erscheinungszeitraum
  • 11
    ISBN: 9784873117010
    Sprache: Englisch , Japanisch
    Seiten: 1 online resource (452 pages)
    Ausgabe: 1st edition
    Schlagwort(e): Electronic books ; local
    Kurzfassung: コロンビア大学のデータサイエンス入門講義をベースとした本書では、データサイエンスを行う上で、どのようなプロセスが必要か、データサイエンティストとしてはどのようなスキルセットが必要で、どのような思考方法を選択する必要があるのかを実例とともに紹介します。Google、Microsoft、Facebookをはじめとした有名企業で使われているアルゴリズムや分析手法の紹介など、興味深い話題や事例を豊富に収録。幅広い解説で、データサイエンティストの参考になるトピックが満載の一冊です。
    Anmerkung: Online resource; Title from title page (viewed October 24, 2014) , Mode of access: World Wide Web.
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 12
    ISBN: 0553418815 , 9780451497338 , 9780553418811 , 9780553418835 , 0553418831 , 9780553418828
    Sprache: Englisch
    Seiten: X, 259 Seiten , 22 cm
    Ausgabe: First edition
    DDC: 005.7
    RVK:
    RVK:
    RVK:
    RVK:
    RVK:
    RVK:
    RVK:
    Schlagwort(e): Big data Social aspects ; Big data Political aspects ; Social indicators Mathematical models ; Moral and ethical aspects ; Democracy ; Big data Social aspects ; United States ; Big data Political aspects ; United States ; Social indicators Mathematical models ; Moral and ethical aspects ; Democracy United States ; United States Social conditions 21st century ; United States Social conditions ; 21st century ; Big Data ; Kritik ; Soziale Ungleichheit
    Kurzfassung: We live in the age of the algorithm. Increasingly, the decisions that affect our lives -- where we go to school, whether we get a car loan, how much we pay for health insurance -- are being made not by humans, but by mathematical models. In theory, this should lead to greater fairness: Everyone is judged according to the same rules, and bias is eliminated. But as Cathy O'Neil reveals in this book, the opposite is true. The models being used today are opaque, unregulated, and uncontestable, even when they're wrong. Most troubling, they reinforce discrimination: If a poor student can't get a loan because a lending model deems him too risky (by virtue of his zip code), he's then cut off from the kind of education that could pull him out of poverty, and a vicious spiral ensues. Models are propping up the lucky and punishing the downtrodden, creating a 'toxic cocktail for democracy.' Welcome to the dark side of Big Data. Tracing the arc of a person's life, O'Neil exposes the black box models that shape our future, both as individuals and as a society. These 'weapons of math destruction' score teachers and students, sort résumés, grant (or deny) loans, evaluate workers, target voters, set parole, and monitor our health. O'Neil calls on modelers to take more responsibility for their algorithms and on policy makers to regulate their use. But in the end, it's up to us to become more savvy about the models that govern our lives
    Kurzfassung: We live in the age of the algorithm. Increasingly, the decisions that affect our lives -- where we go to school, whether we get a car loan, how much we pay for health insurance -- are being made not by humans, but by mathematical models. In theory, this should lead to greater fairness: Everyone is judged according to the same rules, and bias is eliminated. But as Cathy O'Neil reveals in this book, the opposite is true. The models being used today are opaque, unregulated, and uncontestable, even when they're wrong. Most troubling, they reinforce discrimination: If a poor student can't get a loan because a lending model deems him too risky (by virtue of his zip code), he's then cut off from the kind of education that could pull him out of poverty, and a vicious spiral ensues. Models are propping up the lucky and punishing the downtrodden, creating a 'toxic cocktail for democracy.' Welcome to the dark side of Big Data. Tracing the arc of a person's life, O'Neil exposes the black box models that shape our future, both as individuals and as a society. These 'weapons of math destruction' score teachers and students, sort re�sume�s, grant (or deny) loans, evaluate workers, target voters, set parole, and monitor our health. O'Neil calls on modelers to take more responsibility for their algorithms and on policy makers to regulate their use. But in the end, it's up to us to become more savvy about the models that govern our lives
    Anmerkung: Literaturverzeichnis: Seite 219-252
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 13
    ISBN: 9783446257788
    Sprache: Deutsch
    Seiten: 1 Online-Ressource (nicht paginiert)
    Ausgabe: 2. Auflage
    Serie: Hanser eLibrary
    Originaltitel: Weapons of math destruction
    Paralleltitel: Erscheint auch als O'Neil, Cathy, 1972 - Angriff der Algorithmen
    DDC: 303.483
    RVK:
    RVK:
    RVK:
    Schlagwort(e): Populäre Wissenschaften ; Big Data ; Soziale Ungleichheit ; Demokratie ; Gefährdung
    Kurzfassung: Algorithmen nehmen Einfluss auf unser Leben: Von ihnen hängt es ab, ob man etwa einen Kredit für sein Haus erhält und wie viel man für die Krankenversicherung bezahlt. Cathy O’Neil, ehemalige Hedgefonds-Managerin und heute Big-Data-Whistleblowerin, erklärt, wie Algorithmen in der Theorie objektive Entscheidungen ermöglichen, im wirklichen Leben aber mächtigen Interessen folgen. Algorithmen nehmen Einfluss auf die Politik, gefährden freie Wahlen und manipulieren über soziale Netzwerke sogar die Demokratie. Cathy O’Neils dringlicher Appell zeigt, wie sie Diskriminierung und Ungleichheit verstärken und so zu Waffen werden, die das Fundament unserer Gesellschaft erschüttern.
    Anmerkung: Hier auch später erschienene, unveränderte Nachdrucke
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
Schließen ⊗
Diese Webseite nutzt Cookies und das Analyse-Tool Matomo. Weitere Informationen finden Sie hier...