In [ ]:
import tensorflow as tf

# a = tf.placeholder(dtype=tf.int32, name="a")
# a = tf.constant([[1,2], [3, 4]], name = "a")
# b = tf.constant([[1],[2]], name="b")
# c = tf.matmul(a, b)
# print(a.shape, b.shape, c.shape)

# a = tf.placeholder(shape=(None, 2), dtype=tf.int32, name="a")
# b = a + a
c = tf.Variable(1, name="c")
d = tf.assign(c, c + 1)


saver = tf.train.Saver()

with tf.Session() as sess:
#     print("a + b", sess.run(c, feed_dict={a: 1}))
#     print("a * b", sess.run(c))
#     print(sess.run(a, feed_dict={a: [[1, 2]]}))
    sess.run(tf.global_variables_initializer())
    print(sess.run(d))
    saver.save(sess, "model/model.ckpt")

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    saver.restore(sess, save_path="model/model.ckpt")
    print(sess.run(d))

In [ ]:
import tensorflow as tf

LOG_DIR = "./logs"

a = tf.constant(1, name="a")
b = tf.constant(1, name="b")
c = a + b

graph = tf.get_default_graph()
with tf.summary.FileWriter(LOG_DIR) as writer:
    writer.add_graph(graph)

In [ ]:
import tensorflow as tf

x = tf.Variable(100.0, name="x")

func = (x - 1) ** 2

optimizer = tf.train.GradientDescentOptimizer(
    learning_rate=0.1
)

train_step = optimizer.minimize(func)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for i in range(40):
        sess.run(train_step)
    print("x = ", sess.run(x))

In [ ]:
(x_train, y_train), (x_test, y_test) = tf.keras.datasets.boston_housing.load_data()

In [21]:
x_train_mean = x_train.mean(axis=0)
x_train_std = x_train.std(axis=0)
y_train_mean = y_train.mean()
y_train_std = y_train.std()

x_train = (x_train - x_train_mean)/ x_train_std
y_train = (y_train - y_train_mean) / y_train_std

x_test = (x_test - x_train_mean)/ x_train_std
y_test = (y_test - y_train_mean) / y_train_std

plt.plot(x_train[:, 5], y_train, "o")


Out[21]:
[<matplotlib.lines.Line2D at 0x7f73f42574a8>]

In [ ]:
%matplotlib inline
import matplotlib.pyplot as plt

plt.rcParams["font.size"] = 10*3
plt.rcParams["figure.figsize"] = [18, 12]
# plt.rcParams["font.family"] = ["IPAexGothic"]

plt.hist(y_train, bins=20)
plt.xlabel("")
plt.ylabel("")
plt.show()
plt.plot(x_train[:, 5], y_train, "o")
plt.xlabel("")
plt.ylabel("")

In [25]:
x = tf.placeholder(tf.float32, (None, 13), name="x")
y = tf.placeholder(tf.float32, (None, 1), name="y")
w = tf.Variable(tf.random_normal((13, 1)))
pred = tf.matmul(x, w)

loss = tf.reduce_mean((y - pred) ** 2)
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)
train_step = optimizer.minimize(loss)

# with tf.Session() as sess:
#     sess.run(tf.global_variables_initializer())
#     for step in range(100):
#         train_loss, _ = sess.run(
#             [loss, train_step],
#             feed_dict={
#                 x: x_train,
#                 y: y_train.reshape((-1, 1))
#             }
#         )
#         print("step: {}, train_loss: {}, ".format(
#             step, train_loss
#         ))
        
#     pred_ = sess.run(pred, feed_dict={x: x_test})


---------------------------------------------------------------------------
RuntimeError                              Traceback (most recent call last)
<ipython-input-25-7926d83b0b4a> in <module>()
     22 #         ))
     23 
---> 24 pred_ = sess.run(pred, feed_dict={x: x_test})

~/.pyenv/versions/anaconda3-4.4.0/envs/conda3/lib/python3.6/site-packages/tensorflow/python/client/session.py in run(self, fetches, feed_dict, options, run_metadata)
    927     try:
    928       result = self._run(None, fetches, feed_dict, options_ptr,
--> 929                          run_metadata_ptr)
    930       if run_metadata:
    931         proto_data = tf_session.TF_GetBuffer(run_metadata_ptr)

~/.pyenv/versions/anaconda3-4.4.0/envs/conda3/lib/python3.6/site-packages/tensorflow/python/client/session.py in _run(self, handle, fetches, feed_dict, options, run_metadata)
   1073     # Check session.
   1074     if self._closed:
-> 1075       raise RuntimeError('Attempted to use a closed Session.')
   1076     if self.graph.version == 0:
   1077       raise RuntimeError('The Session graph is empty.  Add operations to the '

RuntimeError: Attempted to use a closed Session.

In [26]:
plt.plot(x_test[:, 5], pred_, "o")


Out[26]:
[<matplotlib.lines.Line2D at 0x7f73f4ee5b38>]

In [24]:
import numpy as np

def get_batches(x, y, batch_size):
    n_data = len(x)
    indices = np.arange(n_data)
    np.random.shuffle(indices)
    x_shuffled = x[indices]
    y_shuffled = y[indices]
    for i in range(0, n_data, batch_size):
        x_batch = x_shuffled[i: i + batch_size]
        y_batch = y_shuffled[i: i + batch_size]
        yield x_batch, y_batch
    
    
BATCH_SIZE = 32

step = 0
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for epoch in range(100):
        for x_batch, y_batch in get_batches(x_train, y_train, 32):
            train_loss, _ = sess.run(
                [loss, train_step],
                feed_dict={
                    x: x_batch,
                    y: y_batch.reshape((-1, 1))
                }
            )
            
            print(step, train_loss)
            step += 1
            
    pred_ = sess.run(pred, feed_dict={x: x_test})


0 8.87417
1 2.86203
2 3.28783
3 1.53913
4 1.50868
5 2.8792
6 1.45097
7 0.918059
8 0.659104
9 0.547271
10 0.658442
11 0.611199
12 0.553424
13 0.498982
14 0.424528
15 0.400712
16 0.5667
17 0.193472
18 0.419588
19 0.489204
20 0.456635
21 0.326613
22 0.289794
23 0.346653
24 0.206357
25 0.237312
26 0.350035
27 0.35882
28 0.369999
29 0.207949
30 0.366504
31 0.165934
32 0.164015
33 0.480278
34 0.459086
35 0.330884
36 0.421409
37 0.1866
38 0.108245
39 0.286544
40 0.315608
41 0.230385
42 0.33806
43 0.14721
44 0.117218
45 0.238158
46 0.4277
47 0.356423
48 0.236905
49 0.282828
50 0.238946
51 0.880868
52 0.61922
53 0.227531
54 0.167854
55 0.242445
56 0.292641
57 0.366792
58 0.252401
59 0.2499
60 0.394586
61 0.279159
62 0.22431
63 0.509697
64 0.290727
65 0.205628
66 0.239477
67 0.588755
68 0.253448
69 0.230424
70 0.249378
71 0.256016
72 0.295862
73 0.258016
74 0.223294
75 0.493752
76 0.163961
77 0.526075
78 0.228695
79 0.156433
80 0.38506
81 0.330944
82 0.269039
83 0.300775
84 0.154124
85 0.233835
86 0.352471
87 0.277299
88 0.336246
89 0.46585
90 0.554717
91 0.290154
92 0.17402
93 0.318374
94 0.47699
95 0.158501
96 0.122585
97 0.374941
98 0.201465
99 0.218787
100 0.317093
101 0.339753
102 0.223281
103 0.570699
104 0.248155
105 0.413279
106 0.314855
107 0.278138
108 0.244353
109 0.250603
110 0.156826
111 0.201289
112 0.483305
113 0.287506
114 0.366565
115 0.445177
116 0.225925
117 0.281265
118 0.222448
119 0.286809
120 0.505214
121 0.299265
122 0.310018
123 0.415708
124 0.290232
125 0.265105
126 0.330202
127 0.179611
128 0.276737
129 0.168173
130 0.33205
131 0.388057
132 0.253816
133 0.434202
134 0.231689
135 0.123589
136 0.241639
137 0.258884
138 0.379444
139 0.256005
140 0.252299
141 0.181592
142 0.593355
143 0.265857
144 0.519938
145 0.164315
146 0.265866
147 0.537168
148 0.277815
149 0.442584
150 0.345952
151 0.206946
152 0.297749
153 0.156075
154 0.250441
155 0.131713
156 0.174064
157 0.361123
158 0.446477
159 0.477014
160 0.415895
161 0.219848
162 0.141941
163 0.205599
164 0.190103
165 0.222253
166 0.234134
167 0.314434
168 0.227289
169 0.217931
170 0.162325
171 0.174734
172 0.174681
173 0.633111
174 0.431284
175 0.177817
176 0.180265
177 0.242422
178 0.254636
179 0.242679
180 0.207309
181 0.427409
182 0.291042
183 0.271572
184 0.221372
185 0.369923
186 0.224
187 0.232563
188 0.565648
189 0.159341
190 0.244475
191 0.374977
192 0.398344
193 0.34353
194 0.373607
195 0.256045
196 0.207325
197 0.188434
198 0.166838
199 0.512822
200 0.297049
201 0.507494
202 0.222002
203 0.402745
204 0.268398
205 0.0955491
206 0.24962
207 0.171972
208 0.158688
209 0.232639
210 0.246601
211 0.393214
212 0.242354
213 0.456558
214 0.260108
215 0.160371
216 0.308329
217 0.325498
218 0.380555
219 0.271497
220 0.336458
221 0.390744
222 0.243894
223 0.140661
224 0.332584
225 0.274777
226 0.182819
227 0.501635
228 0.185085
229 0.137085
230 0.550645
231 0.295235
232 0.153296
233 0.371656
234 0.118817
235 0.341147
236 0.442337
237 0.325844
238 0.381572
239 0.229776
240 0.200771
241 0.308159
242 0.391199
243 0.445675
244 0.418429
245 0.260817
246 0.31768
247 0.210837
248 0.717454
249 0.333547
250 0.412041
251 0.35467
252 0.165946
253 0.251307
254 0.195795
255 0.281173
256 0.3067
257 0.327852
258 0.238818
259 0.148135
260 0.188106
261 0.375743
262 0.54802
263 0.297965
264 0.138888
265 0.29591
266 0.254942
267 0.307567
268 0.124411
269 0.212139
270 0.340921
271 0.145509
272 0.805342
273 0.389717
274 0.12456
275 0.187641
276 0.216731
277 0.385858
278 0.585316
279 0.345496
280 0.382366
281 0.4671
282 0.226682
283 0.16409
284 0.146035
285 0.238843
286 0.233224
287 0.155218
288 0.215466
289 0.263218
290 0.151778
291 0.235424
292 0.476495
293 0.237678
294 0.416482
295 0.24588
296 0.424369
297 0.37881
298 0.161527
299 0.270471
300 0.307139
301 0.106002
302 0.265959
303 0.160016
304 0.183557
305 0.563637
306 0.37456
307 0.222087
308 0.34639
309 0.185749
310 0.30678
311 0.358246
312 0.228438
313 0.257939
314 0.438946
315 0.215285
316 0.271137
317 0.261499
318 0.386287
319 0.216097
320 0.520103
321 0.266062
322 0.272123
323 0.211043
324 0.177409
325 0.162664
326 0.174079
327 0.171543
328 0.245274
329 0.471048
330 0.3886
331 0.245318
332 0.384753
333 0.284144
334 0.346341
335 0.201657
336 0.246088
337 0.161068
338 0.241994
339 0.750498
340 0.147338
341 0.183986
342 0.362146
343 0.259749
344 0.14877
345 0.224443
346 0.168905
347 0.173706
348 0.652241
349 0.138805
350 0.422107
351 0.189097
352 0.392347
353 0.245037
354 0.280467
355 0.34604
356 0.158813
357 0.127407
358 0.145144
359 0.466332
360 0.312858
361 0.328688
362 0.521425
363 0.213108
364 0.159888
365 0.134423
366 0.349189
367 0.100284
368 0.26589
369 0.275305
370 0.674405
371 0.442232
372 0.479855
373 0.238252
374 0.295906
375 0.222981
376 0.184806
377 0.240052
378 0.433997
379 0.34975
380 0.294272
381 0.176393
382 0.207527
383 0.46632
384 0.22857
385 0.234672
386 0.46946
387 0.187044
388 0.264764
389 0.42544
390 0.198144
391 0.342957
392 0.275969
393 0.245206
394 0.243498
395 0.219064
396 0.436635
397 0.332693
398 0.567967
399 0.202492
400 0.160889
401 0.488571
402 0.334878
403 0.377636
404 0.230943
405 0.146102
406 0.339539
407 0.172751
408 0.242685
409 0.281561
410 0.223542
411 0.143265
412 0.225118
413 0.328244
414 0.322136
415 0.942389
416 0.409089
417 0.166682
418 0.251802
419 0.180276
420 0.220672
421 0.251105
422 0.248554
423 0.193764
424 0.230097
425 0.472815
426 0.245938
427 0.501038
428 0.389268
429 0.449431
430 0.248871
431 0.325122
432 0.29351
433 0.161793
434 0.386131
435 0.148104
436 0.126897
437 0.419577
438 0.557243
439 0.145505
440 0.266984
441 0.276882
442 0.576803
443 0.199441
444 0.347903
445 0.223661
446 0.242218
447 0.546086
448 0.304457
449 0.256832
450 0.167298
451 0.266717
452 0.331621
453 0.116038
454 0.191547
455 0.177919
456 0.122679
457 0.428437
458 0.324856
459 0.822611
460 0.143535
461 0.210605
462 0.218442
463 0.182159
464 0.25724
465 0.128914
466 0.301654
467 0.541252
468 0.224474
469 0.147895
470 0.30037
471 0.280589
472 0.334993
473 0.277806
474 0.364759
475 0.390248
476 0.775963
477 0.287515
478 0.146109
479 0.223731
480 0.145017
481 0.183878
482 0.374967
483 0.289746
484 0.275307
485 0.575836
486 0.301113
487 0.366721
488 0.362555
489 0.217264
490 0.214381
491 0.227537
492 0.23884
493 0.22982
494 0.251557
495 0.219013
496 0.155147
497 0.535535
498 0.402596
499 0.425752
500 0.253941
501 0.341837
502 0.26133
503 0.27656
504 0.182548
505 0.36584
506 0.247742
507 0.402924
508 0.224319
509 0.0917354
510 0.278869
511 0.585638
512 0.338309
513 0.227357
514 0.195935
515 0.346372
516 0.259539
517 0.317342
518 0.184701
519 0.153647
520 0.241405
521 0.421987
522 0.313646
523 0.210577
524 0.133898
525 0.330136
526 0.169282
527 0.358004
528 0.281125
529 0.272776
530 0.437738
531 0.26324
532 0.329075
533 0.385627
534 0.226647
535 0.238129
536 0.265412
537 0.445493
538 0.188533
539 0.32569
540 0.303468
541 0.181468
542 0.305338
543 0.253332
544 0.331458
545 0.227871
546 0.20034
547 0.225659
548 0.19521
549 0.31356
550 0.16574
551 0.518081
552 0.373835
553 0.445333
554 0.487971
555 0.213318
556 0.370072
557 0.291135
558 0.13317
559 0.34273
560 0.315632
561 0.294054
562 0.200077
563 0.270966
564 0.277557
565 0.500996
566 0.272393
567 0.232168
568 0.254807
569 0.41634
570 0.20994
571 0.278252
572 0.244447
573 0.217001
574 0.231525
575 0.388194
576 0.266403
577 0.389882
578 0.453309
579 0.435793
580 0.275412
581 0.26246
582 0.159317
583 0.0938419
584 0.308931
585 0.269667
586 0.129477
587 0.113861
588 0.167867
589 0.183503
590 0.312756
591 0.254768
592 0.533443
593 0.477935
594 0.337765
595 0.227559
596 0.731156
597 0.251906
598 0.329465
599 0.505151
600 0.38759
601 0.169159
602 0.15363
603 0.125727
604 0.185955
605 0.197317
606 0.186263
607 0.556789
608 0.407142
609 0.489413
610 0.455371
611 0.471628
612 0.266178
613 0.155237
614 0.453823
615 0.308188
616 0.22471
617 0.137842
618 0.18341
619 0.599457
620 0.178693
621 0.278856
622 0.2356
623 0.355834
624 0.891752
625 0.266026
626 0.194449
627 0.289168
628 0.191101
629 0.140467
630 0.228197
631 0.772596
632 0.281283
633 0.283065
634 0.233213
635 0.211391
636 0.207236
637 0.259112
638 0.317046
639 0.136816
640 0.639423
641 0.478256
642 0.178183
643 0.155549
644 0.31565
645 0.57273
646 0.178397
647 0.215244
648 0.514707
649 0.208958
650 0.222257
651 0.350745
652 0.212896
653 0.325363
654 0.247222
655 0.698617
656 0.401756
657 0.199335
658 0.10413
659 0.251384
660 0.218253
661 0.258917
662 0.513382
663 0.255064
664 0.327158
665 0.403627
666 0.240671
667 0.277026
668 0.180491
669 0.233665
670 0.315965
671 0.230604
672 0.172179
673 0.301862
674 0.346983
675 0.312396
676 0.187995
677 0.109287
678 0.155059
679 0.21605
680 0.394346
681 0.213579
682 0.522907
683 0.150377
684 0.242539
685 0.468486
686 0.429972
687 0.632134
688 0.314121
689 0.179592
690 0.244814
691 0.423834
692 0.223881
693 0.527089
694 0.390531
695 0.342971
696 0.183513
697 0.233291
698 0.41503
699 0.186197
700 0.151613
701 0.621172
702 0.236426
703 0.525759
704 0.222599
705 0.226538
706 0.243418
707 0.193657
708 0.258707
709 0.265823
710 0.23961
711 0.214559
712 0.209195
713 0.537561
714 0.546717
715 0.275953
716 0.240815
717 0.237994
718 0.228231
719 0.163984
720 0.264572
721 0.182335
722 0.213149
723 0.329255
724 0.208769
725 0.39566
726 0.535194
727 0.351971
728 0.313868
729 0.172968
730 0.408935
731 0.466526
732 0.233151
733 0.144101
734 0.256914
735 0.28227
736 0.230308
737 0.36864
738 0.21652
739 0.470698
740 0.288507
741 0.619929
742 0.223842
743 0.302277
744 0.372525
745 0.198929
746 0.178086
747 0.248072
748 0.221177
749 0.226026
750 0.434234
751 0.288427
752 0.175822
753 0.171053
754 0.58956
755 0.253604
756 0.144327
757 0.113626
758 0.207196
759 0.135626
760 0.367854
761 0.236239
762 0.541096
763 0.132905
764 0.589239
765 0.250853
766 0.19926
767 0.23825
768 0.252595
769 0.332299
770 0.180418
771 0.35066
772 0.245608
773 0.208161
774 0.158022
775 0.106247
776 0.593765
777 0.297405
778 0.431277
779 0.407454
780 0.362156
781 0.339432
782 0.210978
783 0.204104
784 0.188931
785 0.219688
786 0.460391
787 0.20758
788 0.344308
789 0.360688
790 0.282289
791 0.301276
792 0.519433
793 0.629633
794 0.17477
795 0.220361
796 0.150821
797 0.539676
798 0.211513
799 0.243791
800 0.271139
801 0.220498
802 0.532122
803 0.339961
804 0.255964
805 0.154252
806 0.196341
807 0.309425
808 0.277168
809 0.587106
810 0.404477
811 0.321951
812 0.154296
813 0.381318
814 0.466746
815 0.19279
816 0.245035
817 0.162673
818 0.166499
819 0.431915
820 0.20377
821 0.203397
822 0.219226
823 0.492457
824 0.369917
825 0.251458
826 0.241339
827 0.375402
828 0.201453
829 0.209862
830 0.299728
831 0.150414
832 0.572737
833 0.211936
834 0.21415
835 0.450567
836 0.304514
837 0.269714
838 0.167876
839 0.226481
840 0.317074
841 0.324881
842 0.220368
843 0.198021
844 0.450922
845 0.464796
846 0.254195
847 0.443124
848 0.195046
849 0.261829
850 0.188689
851 0.354958
852 0.210714
853 0.285473
854 0.25107
855 0.340922
856 0.31174
857 0.288204
858 0.418486
859 0.176203
860 0.200429
861 0.101627
862 0.23497
863 0.180585
864 0.747559
865 0.366848
866 0.202222
867 0.383148
868 0.320861
869 0.269933
870 0.131498
871 0.219573
872 0.142797
873 0.555262
874 0.399512
875 0.270796
876 0.596366
877 0.25863
878 0.136848
879 0.298038
880 0.270761
881 0.253897
882 0.135358
883 0.179441
884 0.228554
885 0.230617
886 0.176439
887 0.182431
888 0.372101
889 0.162384
890 0.282575
891 0.317011
892 0.252084
893 0.465853
894 0.491464
895 0.258595
896 0.339829
897 0.324295
898 0.137176
899 0.176824
900 0.425384
901 0.153234
902 0.272538
903 0.400513
904 0.262521
905 0.360273
906 0.244138
907 0.255989
908 0.591364
909 0.442929
910 0.30428
911 0.194196
912 0.36857
913 0.336315
914 0.113361
915 0.229043
916 0.329937
917 0.265796
918 0.262124
919 0.472099
920 0.462932
921 0.525595
922 0.35763
923 0.143481
924 0.283446
925 0.647025
926 0.411532
927 0.229749
928 0.468161
929 0.20601
930 0.389985
931 0.132172
932 0.263871
933 0.340835
934 0.202073
935 0.176747
936 0.347054
937 0.428405
938 0.197841
939 0.301577
940 0.385731
941 0.12119
942 0.102185
943 0.139156
944 0.244762
945 0.5618
946 0.263368
947 0.401687
948 0.537517
949 0.460228
950 0.269988
951 0.308086
952 0.245013
953 0.100965
954 0.365156
955 0.503009
956 0.210219
957 0.404022
958 0.176235
959 0.142684
960 0.270288
961 0.131576
962 0.509617
963 0.270169
964 0.207705
965 0.287281
966 0.190221
967 0.173084
968 0.534779
969 0.269338
970 0.192075
971 0.452237
972 0.211992
973 0.153552
974 0.267128
975 0.249843
976 0.252369
977 0.163506
978 0.381469
979 0.276485
980 0.118931
981 0.178101
982 0.500323
983 0.154447
984 0.318509
985 0.551623
986 0.209561
987 0.399698
988 0.210765
989 0.246557
990 0.283144
991 0.176172
992 0.225639
993 0.15832
994 0.298832
995 0.347328
996 0.551416
997 0.145265
998 0.619129
999 0.178726
1000 0.409895
1001 0.330524
1002 0.35218
1003 0.104923
1004 0.196145
1005 0.223174
1006 0.212639
1007 0.524054
1008 0.255818
1009 0.467015
1010 0.372751
1011 0.262961
1012 0.22347
1013 0.162708
1014 0.154429
1015 0.209035
1016 0.245744
1017 0.519112
1018 0.188026
1019 0.498816
1020 0.242348
1021 0.185251
1022 0.219388
1023 0.228264
1024 0.297604
1025 0.229339
1026 0.611829
1027 0.227029
1028 0.151533
1029 0.503592
1030 0.342561
1031 0.28585
1032 0.290707
1033 0.195119
1034 0.276129
1035 0.323527
1036 0.294031
1037 0.169736
1038 0.319755
1039 0.664477
1040 0.330115
1041 0.220334
1042 0.29219
1043 0.174842
1044 0.441472
1045 0.171356
1046 0.250092
1047 0.640944
1048 0.344624
1049 0.239261
1050 0.255875
1051 0.155176
1052 0.403901
1053 0.283125
1054 0.268529
1055 0.325644
1056 0.208553
1057 0.200972
1058 0.476482
1059 0.32592
1060 0.2408
1061 0.173674
1062 0.11682
1063 0.415654
1064 0.380128
1065 0.257085
1066 0.391452
1067 0.242988
1068 0.235014
1069 0.152551
1070 0.355115
1071 0.526004
1072 0.458044
1073 0.223557
1074 0.131079
1075 0.26971
1076 0.28774
1077 0.134337
1078 0.204206
1079 0.166609
1080 0.34853
1081 0.163694
1082 0.272406
1083 0.232628
1084 0.394208
1085 0.428173
1086 0.353395
1087 0.260989
1088 0.492033
1089 0.241842
1090 0.183952
1091 0.244254
1092 0.439708
1093 0.151538
1094 0.281401
1095 0.273504
1096 0.487902
1097 0.307621
1098 0.180069
1099 0.287113
1100 0.142615
1101 0.20161
1102 0.564658
1103 0.47895
1104 0.182108
1105 0.165293
1106 0.189042
1107 0.394517
1108 0.6037
1109 0.297077
1110 0.36181
1111 0.19303
1112 0.168185
1113 0.249539
1114 0.524202
1115 0.32318
1116 0.342714
1117 0.153465
1118 0.12606
1119 0.0976975
1120 0.279807
1121 0.376609
1122 0.269915
1123 0.600237
1124 0.32347
1125 0.499817
1126 0.224416
1127 0.203993
1128 0.347438
1129 0.23251
1130 0.333503
1131 0.58852
1132 0.36509
1133 0.161064
1134 0.270869
1135 0.237894
1136 0.193939
1137 0.148402
1138 0.421709
1139 0.270059
1140 0.163033
1141 0.194021
1142 0.394475
1143 0.163982
1144 0.169589
1145 0.26084
1146 0.436694
1147 0.46158
1148 0.250844
1149 0.249239
1150 0.33773
1151 0.210165
1152 0.12945
1153 0.133474
1154 0.347992
1155 0.176775
1156 0.541513
1157 0.513924
1158 0.251904
1159 0.21497
1160 0.214217
1161 0.31608
1162 0.154031
1163 0.168388
1164 0.571043
1165 0.496561
1166 0.116681
1167 0.297611
1168 0.226272
1169 0.166668
1170 0.150194
1171 0.455325
1172 0.269593
1173 0.189298
1174 0.34227
1175 0.161098
1176 0.463752
1177 0.206994
1178 0.271986
1179 0.151572
1180 0.272335
1181 0.38623
1182 0.214144
1183 0.208456
1184 0.19025
1185 0.287787
1186 0.603744
1187 0.410956
1188 0.171154
1189 0.293044
1190 0.219166
1191 0.514798
1192 0.289707
1193 0.309927
1194 0.264985
1195 0.182985
1196 0.30825
1197 0.402069
1198 0.422291
1199 0.256083
1200 0.17105
1201 0.329119
1202 0.312513
1203 0.405707
1204 0.562369
1205 0.369724
1206 0.210013
1207 0.160785
1208 0.536846
1209 0.157406
1210 0.278875
1211 0.333956
1212 0.203642
1213 0.36846
1214 0.551474
1215 0.2479
1216 0.173804
1217 0.262122
1218 0.473967
1219 0.249271
1220 0.344704
1221 0.111745
1222 0.182482
1223 0.263808
1224 0.381406
1225 0.198883
1226 0.545742
1227 0.247752
1228 0.257564
1229 0.506069
1230 0.126086
1231 0.262966
1232 0.213404
1233 0.205395
1234 0.318124
1235 0.155161
1236 0.19976
1237 0.258099
1238 0.220023
1239 0.103331
1240 0.227426
1241 0.13219
1242 0.257901
1243 0.319777
1244 0.410392
1245 0.477681
1246 0.42278
1247 0.615504
1248 0.451829
1249 0.257051
1250 0.17592
1251 0.400974
1252 0.309427
1253 0.329937
1254 0.493986
1255 0.395557
1256 0.194475
1257 0.205627
1258 0.186856
1259 0.291347
1260 0.289433
1261 0.168723
1262 0.392675
1263 0.368674
1264 0.441081
1265 0.476485
1266 0.245066
1267 0.454156
1268 0.315146
1269 0.266302
1270 0.298471
1271 0.137834
1272 0.172606
1273 0.164571
1274 0.419743
1275 0.24317
1276 0.572981
1277 0.208542
1278 0.387291
1279 0.269031
1280 0.160905
1281 0.211021
1282 0.322456
1283 0.300953
1284 0.188617
1285 0.328983
1286 0.285269
1287 0.439118
1288 0.210688
1289 0.303322
1290 0.131743
1291 0.309599
1292 0.357911
1293 0.287657
1294 0.357789
1295 0.445668
1296 0.212292
1297 0.393539
1298 0.119691
1299 0.135764