Ordinateurs stockent les données sous forme de séquences de 1 et de 0 dans la mémoire, où chaque chiffre est appelé un peu. Pour chaque bit que vous ajoutez à une séquence de données , vous doublez le nombre de combinaisons possibles, il est capable de tenir . Par exemple, un numéro 1 -bit est titulaire de deux chiffres: 1 et 0. Un certain nombre de 2 bits détient quatre chiffres, comme 00, 01 , 10 et 11 . Un entier de 32 bits est capable de contenir 4294967296 combinaisons . L' . Net BigInteger détient encore plus de combinaisons de chiffres , car il a un nombre variable de bits . Instructions 1 Ouvrez Visual Studio 2010 et de commencer un nouveau projet en cliquant sur " Fichier" et sélectionner "Nouveau projet ". 2 sélectionner " Application console " dans le cadre du C # va dans la boîte de dialogue Nouveau projet. Un nouveau fichier de code source s'affiche dans l'espace principal , avec rien de plus qu'une fonction principale vide . 3 déclarer un nouveau type BigInteger en écrivant la ligne suivante à l'intérieur des accolades de l' " la fonction principale "dans le fichier de code source : BigInteger bigNumber = new BigInteger (1000); 4 déclarer un nouveau type int en écrivant la ligne suivante en dessous de la ligne de code précédente : Photos int smallNumber = 5; 5 Attribuer le BigInteger à l'entier en utilisant la fonction de conversion suivante : smallNumber = new integer ( bigNumber.intValue ( ) ) ;
|