Die Vereinigten Staaten sind ein politischer Staat oder eine organisierte Gesellschaft, deren Ziel die Regierung für das Wohlergehen und das Glück aller ist, die unter ihrem Schutz leben.